Riksarkivet er blitt den tredje norske institusjonen til å legge ut fotohistorisk materiale på Flickr Commons. Dette prosjektet vokser støtt og stadig; nye arkiver, biblioteker og museer kommer til, og de som har vært med lengre legger ut nye bilder. For to år siden skrev jeg en artikkel i forbindelse med at Bergen Offentlige Bibliotek ble den første norske deltakeren i prosjektet.
Author Archives: Olav A.
Nyhetsbloggen: kraftfullt verktøy for nettmedier
Hendelsene i Tripoli de siste par dagene har igjen demonstrert verdien av en nettsjanger som har blitt utviklet og perfeksjonert de siste årene: Den hyppig oppdaterte nyhetsbloggen, fokusert på en stor nyhet under utvikling (breaking news). Medier som The Guardian og New York Times har gått foran, og nyhetsbloggen er nå en selvsagt del av dekningen av enhver virkelig stor sak i disse redaksjonene. Det er en logisk utvikling: Bloggen er en genuin nettsjanger som etter hvert har fått mange undersjangre, og profesjonelle journalister har forstått potensialet.
I nyhetsbloggen slik disse mediene har formet den, synliggjøres mye av den journalistiske kompetansen som før har ligget skjult i nyhetsvurderings- og redigeringsarbeidet forut for publisering. Typisk er at bloggene, som Guardians om kampene i Libya, siterer fortløpende fra en rekke kilder. Det kan være viktige uttalelser, faktabiter, Twitter-meldinger, videoer som dukker opp på YouTube, og altså ikke bare mediets egenproduserte saker. Ofte dreier det seg om å vurdere kildenes troverdighet, noe få er bedre til enn erfarne journalister (flere aktuelle eksempler: Telegraph, New York Times).
En god nyhetsblogg blir dermed en stor hjelp for leserne til å orientere seg i et nyhetsbilde som er på sitt mest forvirrende akkurat mens en sak utvikler seg. For meg er nyhetsbloggene derfor som regel første stopp under saker som opprøret i Libya og Syria, men også en stor sak som Murdoch-avisenes avlyttingsskandale.
Hvorfor har så ingen norske nettmedier utnyttet denne sjangeren? Det er noen tilløp, som Dagbladets nyhetsstudio, og enkelte har forsøkt seg med Cover it live-verktøyet under store saker (VG under Mumbai-terroren, E24 nå under børsurolighetene). Men nyhetsbloggen lar vente på seg; kan en grunn være at selve blogg-sjangeren er blitt litt uglesett av norske journalister? Redaksjonelt drevne blogger er blitt forsøkt i norske medier, men sjelden helhjertet og med utholdenhet. Samtidig er de norske bloggerne med suksess pur unge, blonde og uten journalistiske ambisjoner. Mange får vel assosiasjoner til fargen rosa når de hører “blogg”. Glem dette, det er på tide å gi sjangeren en ny sjanse: Prøv nyhetsbloggen, men gjør det skikkelig.
Dokumentasjonskrav til medier
I Mål og mening drøfter Ottar Hellevik en rekke eksempler på feilslutninger og -tolkninger som kan oppstå når medier formidler resultater fra meningsmålinger og andre intervjuundersøkelser. Dette er en øyeåpnende og underholdende bok som burde havne på journalistskolenes pensum, men den burde også inspirere til endret praksis i mediene. I dag er det tilfeldig hvordan intervjuundersøkelser omtales. Noen medier er ganske flinke, men det er ingen enhetlig praksis. Helleviks forslag lyder (s. 192-193):
Ideelt sett bør en ha med nøyaktig spørsmålsformulering, inkludert svaralternativene, opplysninger om hvordan intervjuene er foretatt (hjembesøk, telefon, postenquete eller Internett-skjema), tidspunkt for gjennomføringen, type utvalg og antall intervjuer, og gjerne en angivelse av feilmarginer.
Jeg vil hevde at uten denne informasjonen er det umulig for publikum å vurdere om redaksjonens tolkning av undersøkelsen er rimelig. Derfor burde dette være et absolutt minimumskrav til dokumentasjon når en omtaler en undersøkelse. Plassmangel er ikke lenger et tema: I nettutgaven har i dag enhver redaksjon nok plass til å publisere denne informasjonen. Tidspress er heller ingen overbevisende innvending. Informasjonen kan raskt tastes inn i en egen modul i publiseringsverktøyet. Redaksjonen kan benytte anledningen til å lage en egen temaside der all omtale av undersøkelser samles — også dette en smal sak å få til med fornuftig tagging av materialet.
Det er imidlertid ingen grunn til å stoppe der. Hvorfor ikke la leserne få tilgang til hele materialet? Når redaksjoner selv får utført undersøkelser, enten ved egne krefter eller ved å betale et eksternt firma, er ikke rettigheter noe problem. Redaksjonen kan da legge ut hele datasettet, så kan leserne etterprøve konklusjoner og kanskje finne nye, interessante poenger. Når det er andre aktører som har rettighetene, kan redaksjonen likevel øve press — forskere burde være lydhøre overfor argumenter om at offentligheten skal kunne etterprøve om metode og konklusjoner holder mål. Slik kan også mediene bli pådrivere for økt åpenhet om forskningsdata, noe det er stort behov for.
Jeg har gjort et par forsøk med å legge ut hele datamaterialet fra undersøkelser. Et eksempel: resultatene av spørsmål om datajournalistikk besvart av redaktører i vinter (se tilhørende artikkel). Det tok riktignok noe tid å bearbeide materialet før publisering, men dette arbeidet kan lett effektiviseres og dels automatiseres.
Krav til bedre dokumentasjon i medier kan utvides til flere områder enn intervjuundersøkelser. Jeg vet ikke hvordan andre har det, men jeg irriterer meg i hvert fall jevnlig over radio- og TV-kanaler som slår sine “eksklusive” nyhetssaker stort opp, basert på et eget materiale som selvsagt er umulig å gjøre rede for i et kort innslag. Dette kunne de bøte på ved å publisere kildematerialet på nettsidene, men det skjer altfor sjelden. Dermed forlanger en at publikum bare skal godta slutninger en selv har trukket av et materiale — en holdning som hører hjemme i en ganske annerledes mediehverdag.
Bør krav til dokumentasjon inn i Vær varsom-plakaten? Det vil nok bli for detaljert å ta inn spesifikke krav til ulike typer kildemateriale, som intervjuundersøkelser, men en generell formulering om at kildemateriale som er viktig for forståelsen av nyheten bør publiseres, er definitivt noe å tenke på. I dag er det som står om kildemateriale og publisering dominert av hensynet til kildevern. Formuleringene bærer også preg av at det er personlige intervjuer man har tenkt mest på, men i dag er skriftlige kilder som undersøkelser og datamateriale svært sentrale, og det er lett å spå at slike kilder bare vil øke i betydning.
Et alternativ til revisjon av Vær varsom-plakaten — eller en forløper — kan være at noen medier går sammen om å utvikle en felles dokumentasjonspraksis. Dette ville være til stor hjelp for et mediepublikum som i dag må navigere i uoversiktlige farvann. Mediene snakker gjerne om hvilke fortrinn profesjonell redigering og en etisk kodeks gir dem overfor brukerstyrte medier. Selvpålagte dokumentasjonskrav ville gi disse salgsargumentene en tiltrengt oppdatering.
Dagen etter
Finding the source of an epidemic: Faster with open data?
German public health officials are working around the clock to find the source of the e.coli (EHEC) epidemic. Today as many as 365 new cases were confirmed, in all there are more than 1000 cases. So far at least 14 deaths have been registered.
Germany is probably one of the countries in the world most able to deal with such a serious epidemic. However, looking at media coverage and the way public health agencies are informing citizens, I think a different approach could speed up the crucial process of finding the source.
A similar, though not so quickly developing epidemic occurred in Norway in 2006 (link in Norwegian). 18 persons, 16 of them children, were hospitalized with e.coli. One of the children died. Research by the public health agencies, including of course interviews with patients and their families, pointed initially towards ground meat as the culprit. But this turned out to be a wrong lead (as many of us following the news had suspected). Several weeks went by until the bacteria was found in “morrpølse” and traced back to a specific production facility.
The story and the “ground meat hypothesis” dominated the media, and this was a hot topic for discussion around breakfast and lunch tables all over the country. At the time, I wondered why the public health experts didn’t disclose more of their findings. If they had published all data and information from interviews and research (of course anonymized for privacy), then other experts, and smart people in general, could have contributed their own analysis. Perhaps they could have pointed to leads that officials had overlooked, patterns they hadn’t observed. Can we for example rule out that some IT experts have better tools at their disposal, or at least other tools than the officials in charge? Of course, data should be published in English so that foreigners also could weigh in.
One obvious counter-argument is that asking for ideas and analysis from the public would open the floodgates and confuse rather than help researchers. But this is again a question of having the right tools available for filtering and analysing contributions. After all, crowdsourcing research processes has been tried before.
In the ongoing German epidemic, online media could play a constructive part by starting such a process of asking the audience for advice and ideas. At least they should start by offering more in-depth interactive presentations of how the epidemic is spreading. Detailed maps would be interesting and helpful in itself. At least some government agencies are providing quite specific information about where cases originated (Schleswig-Holstein, pdf). Media could in general use this opportunity to file requests for data and demonstrate the potential of data journalism.
***
UPDATE June 5: The suggestion above more or less takes for granted that the responsible government agencies, hospitals etc. at least have an efficient way of collecting and disseminating information among themselves. But this is doubtful, as criticism in the German media the last week of several aspects of how the epidemic is handled shows. Hospitals complain about the late arrival of questionnaires to be used in interviews with patients. The Robert Koch Institut does not disclose much information on how they are working to find the source of the epidemic, one hospital director says. By tomorrow, June 6, a new Internet government platform for sharing of information between agencies will be launched — another indication that the information infrastructure part of dealing with the epidemic has had flaws so far.
UPDATE June 15: On Zeit Online’s Data Blog, some of the same questions are raised and debated, with comments from the Robert Koch Institut.
Straffeporto til nettmediene
Dekningen av Arbeiderparti-landsmøtets nei til EUs tredje postdirektiv blottlegger at norske nettmedier har opparbeidet seg et blytungt innovasjonsetterslep. I alle de store nettmediene dominerer i prinsippet den samme modellen for presentasjon av nyheter som har vært standard siden web-publisering begynte midt på 1990-tallet. Det er tittel, ingress og brødtekst, til nød utvidet med en ekstern hyperlenke eller to og en minimalistisk faktaboks. Man kjenner det igjen: Dette er ingenting annet enn papiravisens innholdspresentasjon.
Postdirektiv-saken egner seg i teorien fremragende for innovativ nettpresentasjon. Her er noe av det som kan lages: En grundig forklaring av sakens bakgrunn, supplert med sammendrag av de viktigste dokumentene, som direktivets tekst, forhistorie, rapporter som er produsert om det; en tidslinje der saken følges kronologisk; en tilknyttet forklaring av EØS-avtalens virkemåte, særlig ved reservasjon/veto.
Continue reading
Wikipedia sekund for sekund
Ved å hente ut data fra Wikipedias API har Zeit Online laget denne fine saken, som fortløpende viser redigeringene av den tyskspråklige utgaven av nettleksikonet. Det hadde vært moro å få til det samme for de norske utgavene.
Gi meg gjerne tips om annen kreativ bruk av Wikipedia-APIet.
(PS Bloggen er ikke nedlagt, men det er mye å gjøre på andre fronter. Mange av disse kan nå overvåkes i bloggens høyrespalte. Håper likevel å skrive noe oftere her framover).
Spre kulturarven med semantisk teknologi
Nå nedlagte/ut-fisjonerte ABM-utvikling publiserte i høst en rapport som anbefales for alle som er opptatt av koblingen mellom kultur, semantisk webteknologi og linked data. Forfatter er Robert Engels. Ved siden av å forklare hvordan arkiv, biblioteker og museum kan spre kulturarven langt mer effektivt ved bruk av semantisk teknologi, inneholder rapporten også mange gode eksempler og tips. Blant dem er Evri, en portal som viser noe av potensialet i den semantiske tilnærmingen. Eksempel — se hvordan Evri kobler sammen kilder til informasjon om Edvard Grieg.
Remix culture
Right Wing Radio Duck, also on Open Culture’s 2010 Best of-list.
Fans of the permalink unite
Sometimes forgetting is useful and necessary, but in web publishing the default option should be “never forget”. Unfortunately lots of big and resourceful organizations such as newspapers and public sector agencies rate among the worst when it comes to allowing link rot. So I was glad to see that at least The Guardian knows the value of the everlasting permalink. I know there are others on our side out there, such as The New York Times and Spiegel. In fact, all those could help the cause of the permalink by explaining what they gain financially from their open web archives. What is most difficult to understand about link rot is that it reduces the value of those archives. Who would want that?
In the meantime, we just have to conclude that it’s fairly simple to keep links working when switching systems, even simple bloggers can manage with a little help from their friends (link in Norwegian).