Blogg / Datajournalistik

Ett forsknings- och utvecklingsprojekt i samverkan

Välkommen att delta i FajkHack 2013 – ett hackathon i datajournalistik

FajkHack är ett 24-timmars hackathon i datajournalistik som föreningen Fajk anordnar tillsammans med detta projekt. Nu upprepar vi förra årets framgångsrika arrangemang och årets tema är miljödata.

Missa inte att anmäla er till årets hackathon som kommer att ske den 4-5 maj 2013 på Södertörns högskola. Naturvårdsverket kommer att vara på plats för att presentera miljödatan de har på sin sajt och sin satsning nya på öppna data.

Här finns mer information om FajkHack 2013.
Här finns en Facebook-sida för arrangemanget.

OBS: deltagare i projektet Datajournalistik som inte bor i Stockholm får resan betald av projektet. Kontakta Ester Appelgren på Södertörn för mer info, ester.appelgren(at)sh.se

FajkHack 2012
Helgen den 5 – 6 maj 2012 anordnade projektet Datajournalistik tillsammans med föreningen Fajk Sveriges första journalistiska hackaton. Omkring 30 journalister, utvecklare och grafiker fick 24 timmar på sig att producera databasjournalistik, utifrån Stockholms stads öppna data.

Alla blogginlägg från FajkHack 2012 hittar du här.

CAR 2013 med grafikögon

Eftersom mitt huvudsakliga intresseområde är nyhetsgrafik och visualiseringar har det varit mitt fokus under konferensen. Några av föredragen har handlat specifikt om detta (om man bortser från de mer tekniska och praktiska klasserna).

Sharon Machlis från Computerworld gav i sitt föredrag ”Data viz on a shoestring” några tips på datavisualiseringsverktyg som är gratis och som alla kan lära sig att använda. De mest kända är kanske Google Fusion Tables, som ju är populärt för att göra kartor, och Tableau som redan avhandlats här på bloggen. Men det finns en rad andra, till exempel:

  • Many Eyes från IBM
  • Infogr.am
  • Datawrapper
  • Highcharts

Här är hela listan, som även inkluderar spreadsheets och javascriptbibliotek, uppställd med olika parametrar så att du snabbt ser vilket verktyg som passar dig.

Ett av de roligare föredragen handlade om hur viktigt det är att också göra visualiseringar med glimten i ögat. Allt behöver inte vara på största allvar hela tiden. Hur är det att spela sten, sax och påse mot en robot? Eller springa ikapp med en zebra?

Visualiseringar från ansedda medieföretag som Washington Post, New York Times och The Guardian drog ner stora skrattsalvor. Ett av de mer fascinerande exemplen var New York Times som hade konstruerat ett litet spel där man spelade sten, sax och påse mot en robot. Den ursprungliga tanken var att visa hur artificiell intelligens känner igen och lär sig mönster, baserat på hur du agerar.

bild

Sten, sax och påse i New York Times tappning.

Här finns fler exempel på roliga och annorlunda visualiseringar

Några intressanta frågeställningar som har dykt upp under veckan är hur man ska förhålla sig till att den data som laddas upp på t ex Googles och Tableaus servrar är tillgänglig för alla? Inget för känslig data, alltså. Och vem äger upphovsrätten till det som produceras med gratisverktygen? Är det medieföretaget som gjort visualiseringen eller företaget som står bakom programvara och servrar? Diskussionen kom bland annat upp under en Tableau-klass, där slutsatsen blev att det är Tableau som äger rättigheterna eftersom allt material ligger på deras servrar.

Jenny Alvén, Svenska Dagbladet

 

NICAR som ett startskott

Det är sista dagen på NICAR och det är nu det börjar. Jag har försökt gå på så många hands on-sessioner som möjligt, och skallen är full av intryck, information och idéer. Men man kommer tyvärr inte så långt på entimmessessionerna, särskilt när kunskaperna bland journalisterna i lokalen varierar kraftigt, några har med sig egna datorer med olika konfigureringar och andra fastnar och ställer frågor (vilket man förstås ska göra, jag har gjort det med) som gör att genomgången stannar av.

Gänget från Tableau – de var verkligen ett gäng, sex personer i lokalen – hade löst det bäst. Istället för att föreläsaren skulle ta sig tid med att förklara och hjälpa kom snabbt någon av de andra och hjälpte till med problemet. ”Let’s get you up to speed,” hette det sedan, och man fick en snabb viskande dragning av vad föreläsaren gått igenom medan ens egna problem på datorn varit i fokus.
Tableaukursen är också det som givit mest, men så var det också en heldag. Eftersom det var första dagen har jag redan börjat tappa en del grejer, så det gäller verkligen att hålla i det vi lärt oss nu. Att ta sig tid att jobba vidare hemma.

Det gäller inte minst Python. Jag gick på två sammanhängande sessioner som skulle täcka det mest basala, men vi hann bara skrapa väldigt löst på ytan. Det väckte ändå en del mersmak, och jag tror man får se hela NICAR som ett stort smörgåsbord där man plockar lite av varje för att se om man tycker om det. Ska man verkligen lära sig något kan man sedan gå vidare på egen hand med hjälp av till exempel Code Academy eller andra online-resurser.

En bra sak är att sätta upp sig på mejlinglistan NICAR-L. Där kan man ställa frågor och få hjälp av mer erfarna datajournalister. Ska man ge sig in på Python finns också PythonJournos, ”a community of friendly, helpful nerds,” som Tom Meagher uttryckte det.

Annat att jobba vidare med hemma är att kolla upp alla de spännande tjänster och verktyg som nämnts i förbifarten av olika föreläsare. En bra utgångspunkt för den som vill göra detsamma är listorna som sammanställts med tipsheets och resurser här.

Det är intressant att se att det finns en jobbmarknad för datajournalister i USA. Eller vad sägs om de här jobbannonserna? Sarah Cohen sa också att när det skärs ner så skärs det minst på CAR-avdelningarna.

jobbannonser

En värdefull sak jag tar med mig hem är kontakten med de andra deltagarna i det här projektet. Att ha andra svenskar med en gemensam förståelse om vad CAR handlar om är suveränt. Tack för trevliga dagar, och kvällar på stan förstås!

Nu väntar hälsokur efter den fantastiska amerikanska maten…

pannkaka

Lotta Holmström, datajournalist på SVT Pejl (@araneida)

Hej då faktarutan. Välkommen tidslinjen.

15.00 Seminariet borde börjat.
15.02 Seminariet börjar.
15.03 Krista Kjellman Schmidt på ProPublica sjunger tidslinjens lov och radar upp exempel. Alla open source och mycket enkla att använda. Här finns de alla listade: http://lenagroeger.s3.amazonaws.com/timelines/timelines.html
15.04 Först ut är Zach Wise’s TimelineJS. En horisontell tidslinje som går att göra bara genom att skriva text, länkar till klipp, bilder och ljud i ett Google spreadsheet, trycka på publicera-knappen och bädda in. Sällan har jag sett en tjänst som gör så mycket med så lite insats. Dessutom är allt gratis.
15.18 Nästa tidslinje som presenteras är en vertikal sådan. WNYC’s Vertical Timeline. Den bygger också på spreadsheets och är lika enkel att göra.
15.34 Sist ut är ProPublica’s TimelineSetter som är lite krångligare men också väldigt snygg.
15.40 Poängen med tidslinjerna är att bakgrundsfakta blir så väldigt mycket mer intressant i det formatet. Vi kunde direkt tänka ut flera grejer hemma som skulle passa i en tidslinje och den behöver ju inte nödvändigtvis alltid beröra förgången tid utan kan ju också användas för att visa ett kommande skede.
15.47 Sammantaget ett väldigt effektivt och bra seminarium men många direkt omsättningsbara kunskaper. Nedan länkar till tidslinjerna. Det är bara att sätta igång!

/Peter Ferm, HD

Zach Wise’s TimelineJS: http://timeline.verite.co/
WNYC’s Vertical Timeline: http://johnkeefe.net/the-thinking-behind-wnycs-new-vertical-timeli
ProPublica’s TimelineSetter: http://propublica.github.com/timeline-setter/

Svensk-Amerikanska förhandlingar i känsligt läge

Gårdagens mest intressanta samtal ägde rum på kvällen. Jag och Anders Green på Södertörn hamnade i klorna på två lärare/forskare vid Ohio state univeristys journalistutbildning.
De var mycket imponerade av vårt projekt och ville omedelbart börja diskutera olika möjliga samarbeten.
Jag kände att vi kanske inte riktigt hade det mandatet men artigheten krävde ändå fortsatta samtal. En stund senare fanns ett ramverk på plats komplett med studentutbyte och gästföreläsningar av forskare på båda sidor av Atlanten. Dessutom var de beredda att hjälpa oss med feedback och diskussioner om vi körde fast i vårt arbete.
Både jag och Anders kunde väl i proncip stanna och börja jobba/studera i Ohio på måndag.

Skämt åsido. De var verkligen engagerade, både i datajournalistik lokalt men också i att sprida kunskapen om metoder och arbetssätt på ett mycket konkret och aktivt sätt vilket vi blev varse.
Trots att allt som sades i dessa nattmanglingar kanske inte äger giltighet under ljusan dag så finns nog här ändå ett embryo till någonting som skulle kunna utvecklas. Att projektet skulle kunna ha kontakter med universitetet i Ohio i olika frågor är ju en intressant tanke. Den tar vi med oss.
Och ska det hållas fler förhandlingar så räkna med mig och Anders.

/Peter Ferm, Helsingborgs Dagblad.

Du behöver inte göra det där för hand

Det har varit många bra föreläsningar, och många bra hands-on-sessioner på . Det jag tar med mig, är ett par olika produkter, som jag tänker titta närmare på av ren nyfikenhet. Jag tror inte jag kommer arbeta med något av verktygen dagligen, men det är ändå kul att leka med dem och se hur de funkar.

Framförallt kommer jag ta med mig känslan av att det finns massor av journalister, som vet att programmering inte är något magiskt, utan något som man lätt lär sig grunderna i, med lite vanlig enkel nyfikenhet och leklust. Det är lite jobbigt i början, men sen blir det snabbare och roligare.

Rullskridskoåkare

Lite länkar för nyfikna:

  • Alla borde kunna koda – Förhoppningsvis inspirerande…
  • Regular Expressions – Och hur du kommer känna dig efter att ha lärt dig lite
  • Tableau – Experimentera med – och presentera – statistik
  • Caspio  – För dig som kan Access, men som alltid undrat hur fasen du enkelt får ut innehållet på webben
  • Panda – Lagra ditt data sökbart. Automatisera hämtning av nytt data. Prenumerera på sökning. ”Make the robots do it for you”
  • Python – Enkelt att komma igång med. Och du måste förr eller senare lära dig något programmeringsspråk, så varför inte det här?

Hämta webbinnehåll och tvätta bort html med några få rader kod. Eller gör något helt annat givetvis.

Drönarjournalistik

bildVad kommer att hända i framtiden? Det är den stora frågan. Jag brukar ibland resonera med mig själv, och ofta kommer jag fram till ungefär den här slutsatsen: i framtiden kommer alla att programmera och i luften kommer autonoma drönare att susa fram och tillbaka. Samtidigt har jag känt att det här är tankar som kanske är lite väl utmanande för samtiden. Så jag brukar hålla tyst om mina funderingar.

Därför kände jag stor glädje, och på sätt och vis någon slags bekräftelse, när Matt Waite, professor på University of Nebraska, startade upp sin miniatyrquadrotor och flög ut över huvudena på den svenska delegationen här på NICAR13 (som förväntansfullt hade samlats för att lyssna på professorns tankar om framtiden). Vad har det här med journalism att göra? frågar sig någon. På sätt och vis var Matts upptåg lite av en plojgrej, men det ligger en poäng i att det redan idag går att skaffa sig en UAV för en överkomlig summa pengar och sedan skicka upp den i luften för att filma upplopp, bränder och naturkatastrofer. Eller hänga på en geigermätare och flyga in över Fukushima. Matt lät sina studenter bygga en apparat som registrerar acceleration med hjälp av en programmerbar mikrokontroller och en accelerometer (komponenter som kan köpas för några hundralappar på Kjell & Co). Apparaten stoppades ner i en väska som checkades in vid en flygplats, och vad som sedan hände med väskan kunde åskådliggöras med en graf baserad på den registrerade sensordatan.

Utvecklingen sker i en otrolig hastighet nu – Internet, smarta mobiltelefoner, allt kraftfullare batterier, miniatyriseringen av sensorer och andra komponenter. Men det riktigt häftiga är att allt detta går att styra med kod. Om pennan är ett svärd så är datorn en atombomb. Lägg därtill en lödkolv och du har en formidabel vapenarsenal.

@magnusljadas

PS: Mina minnesanteckningar från NICAR13 finns att läsa på magnusljadas.se

 

490 Oscars-klänningar på ett bräde

red carpet

Allt här på datajournalisternas konferens CAR 2013 är inte bara siffror och programmeringskoder. Aron Pilhofer, chef för interaktiva nyheter på New York Times, valde i stället att prata om Oscars-klänningar.

Han underströk hur extremt viktigt det är att presentera nyheter tilltalande. NYT satsar stort på Oscars-galan, eftersom den är tidningens största läsardragare näst efter presidentvalen. Under årets gala sände tidningen live-tv – ”The Oscars with David & Tony” – hela kvällen. När filmen ”Lincoln” fick pris satt tidningens båda kommentatorer med Lincoln-skägg och gammaldags hatt. Twitter och Facebook var viktiga delar av presentationen.

Men snyggast var ändå ”The Red Carpet Project” – en interaktiv New York Times-sajt med 490 kvinnliga celebriteters Oscars-klänningar. Där kunde man välja att se antingen alla rosa eller alla sjöjungfru-formade klänningar mellan 1987 och 2013. Och mycket annat. Titta själv och njut:

http://www.nytimes.com/projects/oscars/red-carpet-history/

Här är några bonuslänkar med interaktiv presentation – rena godiset fakiskt – från en annan av dagens föreläsningar, med Sisi Wei från ProPublica och Tasneem Raja från Mother Jones:

http://project.wnyc.org/dogs-of-nyc/

http://www.washingtonpost.com/wp-srv/special/health/workout-at-work/

http://www.guardian.co.uk/sport/interactive/2012/jul/23/could-you-be-a-medallist

https://www.pbs.org/newshour/adlibs/

Alla dessa länkar är hämtade från tidernas snyggaste, interaktiva konferenspresentation. Bläddra med piltangenterna och klicka på bilder med mera:

sisiwei.com/nicar-making-interactive-fun

Joachim Kerpner, Aftonbladet

Datajournalism som GPT

Efter att ha reflekterat över mina första dagar på en NICAR-konferens så var det Philip Meyers uttalande från 1970-talet att “journalism must become social science in a hurry” som fastnat i mitt huvud. Förutom att Sarah Cohen påminde oss om detta uttalande på en specialföreläsning och att första dagen avlutades med just Philip Meyer Journalism Award, så upplever jag detta tema på nästan alla paneler jag lyssnat på.

Som forskare i företagsekonomi med forskningsintresse om innovationsprocesser så är jag möjligen en främmande fågel på konferensen. Perspektivet som forskare i kombination med intresset om innovationsprocesser har gjort att jag inte riktigt kan släppa Meyer’s gamla citat. Efter att ha närmat mig fältet datajournalism under cirka ett år och nu i kondenserad form på NICAR får en uppdaterad översikt över fältet, så börjar jag bli ganska övertygad om att fältet har drivit på en utveckling av något som innovationsforskningen kallar ”General Purpose Technology” (GPT). En teknologi kan utvecklas till en GPT när den börjar användas för många olika syften. För att det ska hända så krävs det att många kan tillämpa teknologin och inte bara specialutbildade experter. Det är två saker i Meyers citat ovan som jag fastnat vid. Dels att journalister i högre grad behöver använda hela den samhällsvetenskapliga metodarsenalen, men lika viktigt att de måste kunna använda dessa metoder ”…in a hurry”. Det är just det sista som jag uppfattat har lett till att innovationer av olika metodverktyg som har potential att bli eller redan är GPT. Jag börjar också bli övertygad om att detta de sista åren till mångt och mycket har drivits fram av dessa journalisters behov att snabbt kunna tillämpa dessa metoder för sina specifika journalistiska syften. Vad jag försöker säga är att från 70-talet och framåt så har journalister som velat närma sig datajournalism varit tvungna att lära sig samma ganska komplexa metodverktyg som forskare använder sig av vid vetenskapliga studier.

Det som slagit min under året och här på NICAR, är att journalister och forskare i stort sätt har samma krav på noggrannhet och tillförlitlighet i arbetsprocessen. Den stora skillnaden är snarare tidsaspekten. Forskning får och behöver ibland ta lång tid. Den lyxen har oftast inte journalisten. Jag är otroligt imponerade av den kreativitet och driv som datajournalister här på NICAR uppvisar i att hitta tidsparande lösningar och smarta genvägar med befintliga databehandlingsprogram utan att släppa kraven på noggrannhet och tillförlitlighet. Här har vi som forskare mycket att lära! Men min poäng är att journalister tillsammans med utvecklare på redaktioner och oftast i samarbete med programutvecklare och universitet i en anda av ”open innovation” allt mer de senaste åren utvecklat en rad nya, smarta och lättanvända metodverktyg för att insamla, bearbeta, analysera och visualisera stora datamängder. Och vi har nog bara sett början än!

Dessa innovationer kommer inte bara journalister och forskare använda sig av, utan det är här den stora potentialen finns att dessa metoder kommer kunna användas för en rad andra grupper och för ändamål som vi idag inte har en aning om. Det vill säga de har blivit så kallade GPT. Ur ett samhällsperspektiv är den stora potentialen den enorma kunskap dessa verktyg kommer kunna generera. Vinnova delfinansierar detta projekt tillsammans med Södertörns högskola och våra partners från mediebolagen. Jag tror att Vinnova inom ganska snart tid kan räkna hem dessa pengar utifrån deras syften. Att mediebolagen också kommer kunna göra det är jag också ganska övertygad om, men det är en de saker som vi ska studera i projektet.

Tommy Larsson Segerlind, forskare i företagsekonomi vid Södertörns högskola

Uppsnappat

“Get to the people who actually manage data. PR staffers don’t know anyting about data.” (Tim Eberly, The Atlanta journal-Constitution)

“Always assume there are problems in data” (David Donald, center for Public integrity)

“We make the invisible visible” (Maud Beelman, Dallas Morning news)

“The data looks different after every time I have talked to a person about it” (Jennifer LaFleur, ProPublica).

1 2 3 4