Blogg / Datajournalistik

Ett forsknings- och utvecklingsprojekt i samverkan

Onödiga appar för sociala medier-research

Någon självklar definition av datajournalistik finns inte. Sociala medier, som jag själv arbetat med journalistiskt i flera år, kan med fördel också räknas hit.

Fler seminarier på Nicar än jag förväntat mig handlade om gammal hederlig research i sociala medier. Mandy Jenkins  och Robert Hernandez höll en på speed och drog i expressfart igenom en mängd coola appar och flashiga tjänster som TwXplorer, Topsy, Banjo och Geofeedia för att hitta tweets, bilder och andra inlägg från personer som befinner sig där något dramatiskt hänt.

Personligen tycker jag att sådana tjänster sällan funkar särskilt bra. Min egen erfarenhet är att det bästa oftast är att använda Twitters, Facebooks och Linkedins egna sökfunktioner, i stället för diverse appar som använder deras API:er.

Det var skönt att även höra föreläsaren Samantha Sunne säga det på sin dragning några dagar senare. Hon dissade till exempel Banjo, som jag verkligen inte fått ut något journalistiskt vettigt av trots flera rekommendationer.

Men Samantha Sunne påminde också att det på Twitter inte är särskilt effektivt att använda advanced search-fältet, utan bättre att i stället använda operators direkt i det vanliga sökfältet, typ: #nicar14 lang:sv near:baltimore since:2014-02-26 until:2014-03-02.

Rent teoretiskt bör du då få upp tweets skrivna på svenska från Nicarkonferensen, dock bara de som aktivt geotaggat sig där, något de flesta tyvärr inte gör. Vilket bevisar att sociala medier-research inte är någon exakt vetenskap (testa att bara skriva #nicar14 lang:sv så får du nog upp några resultat i alla fall).

Att döma av en del utrop i salongen när Mandy Jenkins och Robert Hernandez visade Facebooks nya sökmotor Graph Search är den en väl förborgad hemlighet även bland amerikanska journalister, trots att den är default för alla amerikanska Facebookanvändare.

Det har nämligen varit mitt allra bästa enskilda researchtips i sociala medier det senaste halvåret: Ändra språk i din Facebook under inställningar till US English, och du kommer att kunna göra sökningar av typen ”People from Sweden who live in Kyiv, Ukraine” för att hitta ögonvittnen till dramatiska händelser eller ”Men who are married to men and live in Dalarna” för att hitta case.

Linkedin, underskattad för att göra personresearch bland journalister, togs också upp en del. Här fick jag också lära mig något nytt: Om man går med i gruppen Linkedin for Journalists och medverkar på en halvtimmes webbseminarium får man gratis premiummedlemskap i Linkedin, med utökade sökmöjligheter. Ska genast undersökas!

Tobias Brandel/SvD

Samlade tankar

Så var Nicar över för den här gången. Och för andra året i rad åker jag hem med både hopp och förtvivlan.

Förtvivlan för att det känns som att jag ligger lååångt efter med mina kunskaper i kod då man sett så många som är så otroligt duktiga på det de gör och väldigt kreativa med det.

Men samtidigt också hopp då man har mer inspiration än någonsin att fortsätta lära sig och bli bättre och till slut kunna göra något man faktiskt har nytta av själv. Ser verkligen fram emot att gå igenom en massa tipsheets när jag kommer hem.

Det jag egentligen redan visste men som blev ännu tydligare under konferensen var att hands-on sessionerna var de som verkligen gav någonting som man kommer ha nytta av sedan. Jag tror att vi som utlänningar generellt inte får ut lika mycket av alla paneler då det är så mycket man pratar om och exempel som visas som är väldigt specifika för USA. Men självklart har det funnits några intressanta diskussioner, som till exempel en om vad man gör när det inte finns data. Matt Waite, Meghan Hoyer och Sarah Cohen hade alla lite olika exempel de visade och intressanta idéer att ta med sig. Framför allt Matts tankar kring sensorer tycker jag var intressant.

Mina topp tre saker från konferensen:

  1. ArcGIS – jag hoppas verkligen att jag får tag på en subscription när jag kommer hem, då blir det karta av.
  2. QGIS – Gratisverktyget som jag kommer använda direkt när jag kommer hem.
  3. Twine – Textbaserat verktyg för att bygga interaktiva nyhetsspel. Kan vara riktigt informativt och jag kommer verkligen försöka att få till något i det här verktyget när jag kommer hem.

Mikael Tjernström, Mittmedia

”Go go go! Ni har 90 sekunder kvar, ge mig fakta!”

Att delta i workshoppen In the hotseat with breaking news med Jaimi Dowdell och Megan Luther från IRE, gav en känsla av hur det kan låta på en amerikansk nyhetsredaktion mitt under brinnande nyhetsläge.

Vi hade fått tips om en explosion på en fabrik. 40 minuter senare hade vi med effektiv research uppgifter om tidigare incidenter och om vilka kemikalier som fanns på platsen. Vi hade också en lång lista med källor att kontakta, med allt från nödvändiga myndighetspersoner,
nuvarande och tidigare anställda, till målsägande i tvister med företaget.

Att lägga tiden på research när det smäller till kan vara det som får din redaktion att göra de bästa uppföljningarna och hittar det som de andra inte har, var beskedet från Jaimi Dowdell och Megan Luther.

Are you freaked out yet? är en fråga som flera föreläsare ställt när de presenterat vad vi kan hitta i floden av tweets, uppladdade bilder och inlägg på sociala forum.

Många gånger kan det vara det vi inte hittar som är mest intressant, något ProPublicas granskning How to get censored on Weibo visade. Hundra miljoner inlägg postas på Kinas twitter varje dag, de hittade och byggde en historia på det som raderades.

Med opengraph har Facebook gjort sina användare till en öppen katalog och endast fantasin (och sekretessinställningar) sätter gränserna.

Sökningar på Linked in ger en möjlighet att navigera bland anställda, och tidigare anställda, på de företag du är intresserad av att granska. Och de geokoder som vi delar med oss av i bilder och inlägg på nätet ger redaktioner stora möjligheter att hitta ögonvittnen från
platser där det bränner till.

Men paranoian är din bästa vän, har jag fått lära mig under konferensdagarna. Det är viktigt att kritiskt ifrågasätta uppseendeväckande resultat när du hanterar data. Det är viktigt att
tänka på vad du själv delar med dig av. Och det är viktigt att hantera de källor du hittar på sociala medier med samma skepsis som tipset från den som ringer in till redaktionen.

Samantha Sunne från NPR delade på sin föreläsning How to feel like you’re hacking without really doing it med sig av två verktyg som hjälper dig att undvika de värsta fällorna för bilder.

På sajten fotoforensics.com kan du genom att enkelt klistra in bildens url kontrollera om den blivit redigerad.

Jeffreys EXIF Viewer ger dig lika enkelt tillgång till bildens metadata, med information om allt från plats och tidpunkt till vilken kamera som använts.

Här kan du läsa mer om hur du kan utnyttja webbutvecklarnas verktyg för att undersöka bilders ursprung.

/Hedvig Eriksson, SVT Pejl

Den överskattade inspirationen

En vanlig missuppfattning om datajournalistik är att det rör sig om en genre. Det är en metod. Möjlig att tillämpa på alla journalistiska genrer, från kulturjournalistik (vad sägs om en nätverksanalys av svenska teaterregissörers favoritskådisar) till klassisk kvittogranskningsjournalistik.

Själv har jag med tiden kommit att inse jag är mer intresserad av journalistiska metoder och tillvägagångssätt snarare än de resultat de utmynnar i. En kanske inte helt lyckad egenskap som reporter alla gånger, kanske någon vill invända.

Må så vara. Men om jag en gång till måste genomlida ännu en ”inspirationsdragning” om någon fantastisk artikelserie eller tjänst som The Guardian gjort (ja, i alla fall i Sverige kommer nästan alla inspirationsexempel från The Guardian), utan att få veta HUR de gjort, så stormar jag ur rummet i vredesmod.

Jag upprepar, datajournalistik är en metod. Därför är det fullständigt bortkastad tid att enbart få se det färdiga resultatet om man vill lära sig hur man gör. Tyvärr tror alltför många mediechefer att det räcker med att bjuda in någon cool typ som under en timme visar upp någon läcker journalistisk innovation, och att de egna anställda sedan på något magiskt sätt ska kunna göra samma sak.

Därför är jag mycket positivt överraskad över hur oerhört praktiskt inriktad datajournalistikkonferensen Nicar i Baltimore är, och hur få av dessa rena inspirationsdragningar som hålls här.

Större delen av lördagen tillbringade jag på en rad minikurser i programspråket SQL, där tålmodiga journalistkollegor pedagogiskt och steg för steg lärde oss andra hur vi ställer relevanta frågor till våra databaser.

Datajournalistik är en metod, eller snarare en hel uppsjö av olika metoder som har som minsta gemensamma nämnare att de involverar någon form av databehandling.

I framtiden kommer de flesta journalister (inte bara vi nördar på Nicar) behöva bemästra sådana verktyg – vid sidan av de många andra vi redan har i vår verktygslåda såsom intervjuteknik, formuleringskonst och kunskaper i offentlighetsprincipen.

Tobias Brandel/SvD

 

När inget annat funkar: skrapa nätet

Scraping

Internet är en förutsättning för datajournalistiken såsom vi känner den i dag. Enorma mängder data finns därute på nätet, det gäller bara att hitta den. Samt att ladda ner den. Vilket ibland är lättare sagt än gjort.

Web scraping är en finurlig liten datajournalistisk subgenre. Scraping betyder helt enkelt att hämta ner, eller skrapa, information från webbsidor och hälla in i en egen databas.

Janet Roberts från Reuters listar på ett Nicar-seminarium några tillfällen då tekniken kan komma till pass:

1 När ingen har den data du behöver.

2 När myndigheterna inte ger dig den data du vill ha.

3 När du inte vill att myndigheter eller företag ska veta att du vill använda deras data.

Det finns mängder av olika tekniker och trix för scraping. Man ska inte göra saker mer komplicerade än de behöver vara. En egen favorit när jag hittat en fin liten tabell på nätet som jag bara måste ha är Chrome Scraper, ett tillägg för webbläsaren Chrome, som plockar hem tabeller riktigt snyggt.

Men nu är ju inte all information på nätet prydligt ordnad i tabeller. Och hur gör man om materialet inte ligger på en sida, utan på flera tusen? Danska duon Nils Mulvad och Tommy Kaas har byggt en hel karriär på att medelst programmering, företrädesvis i Python, skrapa nätet. Exempelvis har de laddat ner hela den danska motsvarigheten till Platsbanken och gjort journalistik av.

Men som sagt, man ska inte göra det för svårt för sig. Titta noga på hemsidan, råder Janet Roberts på Reuters. Ofta finns en liten knapp där det står något i stil med ”Ladda ner data”. Eller slå en signal och fråga om du kan få en fil mejlad.

– Försök alltid att minimera lidandet, som Janet Roberts uttrycker det.

Det förefaller mig också som behovet av scraping är större i USA. I Sverige erbjuder de flesta myndigheter möjligheten att ladda ner data som lätthanterliga Excel- eller csv-filer. Att det kan vara besvärligt att få ut handlingar som inte ligger på webben alls från myndigheterna är förstås en helt annan fråga.

Tobias Brandel/SvD

Utseende är inte allt – men väldigt mycket…

Utseende är inte allt – men väldigt mycket…

Just nu experimenterar många svenska mediehus med att utveckla de grafiska möjligheterna och formerna för storytelling online.

De flesta har begripit att besökarna ställer allt högre krav på visualisering, funktionalitet och sköna upplevelser när de tar sig an nyhetsrapportering och reportage.

Försöken är av varierande resultat och förebilderna som fungerar mobilt är få. (Förra året såg jag ingen på NICAR 13 – i år har jag sett flera lyckade exempel).

När besökstrafiken rusar från desktop till mobil (för Aftonbladet just nu cirka: 60/40 och ständigt ökande) blir jobbet extra svårt.
För som vi alla vet: ”Funkar det inte i mobilen – så funkar det inte”

Så hur gör man? 

Ja, just nu tycks läget vara att vi tar i för mycket – sannolikt av ren exprimentlust.

Tre föreläsare pratade under rubriken: I´ts not just for looks: Presentation as a storytelling tool

Självklart är alla dessa tre exempel stora mediehus med enorma resurser.

BBC News, New York Times och NPR.

Aaron Pilhofer, redaktör för den interaktiva nyhetsteamet på New York Times har 20 (!) utvecklare till sitt förforgande.

Han drog exemplet med en av de årliga, återkommande stora publikdragarna för NYT,  Oscarsgalan (som sänds i kväll)

Under flera år har det interaktiva nyhetsteamet lagt ner mycket jobb på att bygga storytelling kring världshändelsen.
Besökarna har försetts med live-tv med NYT-profiler, navigeringslistor sida vid sida med  läsar-omröstningar, cover it live-reportrar som rapporterar vad profilerna säger och vad som händer på galan, omodererat twitterflöde, spel, bildspel med hundratals galablåsor och så vidare.

Inte helt lyckad storytelling, medger Aaron Pilhofer

När teamet faktiskt började mäta exakt hur besökarna använder varje moment i det enorma utbudet tvingades man till insikten: de fattar inte vad de ska göra med allt.

(Även om mätningen visade att förvånande fem procent av besökarna faktiskt klickade sig igenom det enorma bildspelet på 500 bilder.)

Inför kvällens Oscarsgala är utbudet rensat och vinkeln tydlig: En live-tv-sändning med de båda NYT:profilerna under rubriken ”David Karr och Tony Scott bevakar Oscarsgalan”.

Kvar finns det  redaktörs-modererade flödet av kommentarer från sociala medier, läsar-omröstningen och så klart bilderna från röda mattan. Snyggt, enkelt och överblickbart för vem som helst att navigera i.

Och i mobilen ser det ut att bli helt okej.

Helene Sears, chefsdesigner för BBC:s interaktiva onlineteam gav konkreta tips för hur processen att bygga lyckad storytelling bör gå till:

1) Sätt rubriken – exakt vad är vinkeln på det som ska byggas.
2) Brainstorma med ALLA inblandade – reportrar, utvecklare, redaktörer – så att alla får klart för sig vad som ska göras och får sitt säg.
3) Kom INTE med skisser på vad du tänkt dig – det dödar all kreativitet i teamet.
4) Ta fram en prototyp och släng den framför så många ögon som möjligt så att du vet att de begriper den.
5) Gå tillbaks och brainstorma. Förfina idén. Gör den perfekt.
6) Leverera. Testa på alla devices.
7) Testa igen. Fungerar det?
8) Testa igen

Helene Sears exempel från bygget krig den brittiska tv-serien Doctor Who.

Alyson Hurt, grafikredaktör på NPR, gav det mest innovativa och roligaste exemplet om hur man byggde storytelling kring hur en helt vanlig t-shirt kommer till. Som fungerar lysande i mobilen, dessutom.

Läs mer om hur och varför:

Läs hela storyn:
/Maria Trägårdh Aftonbladet

Samla in din data själv

Mycket av det som föreläses om här på Car 2014 bygger på att vi som journalister hämtar data som vi sedan sorterar, analyser och gör journalistik utav.

Men vad gör vi när vi i inte har någon data att ladda ned?

Samlar in vår egen, är svaret från John Keefe (NY public radio) och Liza Stark (Parsons The New School for Design).

 

Under sin session visade de upp en hel del enkla saker man själv kan bygga utan att vara ingenjör.

Som plattform använder det uteslutande Arduino som är en minidator, stor som en cigarettask. Den kostar cirka 20-25 dollar att köpa.

 

Arduino

Till den kan man sedan koppla mängder med olika sensorer för att samla in den data man vill ha.

Du kan till exempel mäta temperaturer, rörelser, fuktighet, luftföroreningar mm.

I och med att de är så billiga att köpa kan man snabbt sätta upp ett stort antal mätpunkter i till exempel en stad och får jämförelsebar data från olika stadsdelar.

Arduino kan förses med både gps-positionerare och wifi.

 

I Japan har mängder med privatpersoner byggt strålmätare med Arduiono som bas efter kärnkraftsolyckan 2010. Dessa är sammankopplade i stora nätverk så man snabbt kan se förändringar.

 

Bifogar en länk till hur man bygger sin Arduino för miljöövervakning:

 

http://alejandroquinteros.files.wordpress.com/2012/11/environmental-monitoring-with-arduino.pdf

Thomas Möller

NTM

 

GEO-Tips

Idag blev ytterligare en dag i kartskapandets tjänst för mig. Dagens första två sessioner ägnade jag åt att kika på gratisverktyget QGIS. Jag ska inte försöka förklara alla funktioner som programmet har för det finns alldeles för många ,men jag tänkte att jag skulle tipsa om ett par saker som jag själv hajade till och tänkte att de skulle vara väldigt användbara.

Det första var hur mångsidigt programmet var vad gäller filformat. Det är väldigt enkelt att konvertera olika typer av filer med geografisk information till det man vill ha vilket kan vara shapefiler, kml, eller kanske geoJSON. Väldigt bra om man får tag på filer som kanske inte är det format man behöver, till exempel så vill man kanske ha en kml-fil om man vill jobba vidare i Fusion Tables.

Man kan också trimma väldigt stora filer så att de blir mindre, vilket så klart medför att den geografiska informationen (polygonerna till exempel) blir lite mindre exakta, men du kan även bespara dina läsare väldigt långa laddningstider.

Som jag nämnde så får jag intrycket av att QGIS är ett bra verktyg för att agera lite mellanhand när det gäller att överföra data till en karta och publicera den på webben. Det går inte att bygga mer interaktiva webbkartor direkt i programmet, men du kan väldigt enkelt skapa geoJSON-filer som du sedan kan ta vidare till verktyg som CartoDB eller Leaflet om du kan lite javascript.

Men det kanske mest uppenbara användningsområdet för mig som jobbar inom printmedia (även om vi ska tänka digitalt först) är att det väldigt enkelt går att skapa statiska kartor och exportera dem som ganska högupplösta jpg:s eller pdf-filer som skulle gå att använda i print.

Många gånger så har man ju gjort en webbkarta i något verktyg men så ska man publicera samma artikel i print, och då blir bildlösningen oftast en annan eftersom den karta man gjort inte funkar i print. Det här kändes som en bra lösning på det och jag ska definitivt testa det mer när jag kommer hem!

/Micke Tjernström, Mittmedia

Utmaningar med visualisering – komplexitet vs förenkling

Två målsättningar står mot varann: vi vill göra mer avancerad grafik, men samtidigt behöver vi förenkla grafik för att den ska funka i mobilen. I bästa fall kan man behålla den önskade komplexiteten i mobilen genom att hitta ett smart gränssnitt. I värsta fall måste man plocka bort element som kräver en större skärmyta.
Explosionen i mobiltrafik verkar inte ha gått riktigt lika snabbt i USA som i Sverige, det känns som att de ligger något år efter. Propublica och andra föredragare medgav att de inte (ännu) har mobile first som övergripande tank, utan det görs snarare en anpassning till mobilen på från fall till fall. I vissa fall anpassas webgrafiken i sin helhet, ibland lyfter man bort vissa element, ibland behåller man webvyn också i mobilen och ser bara till så att det funkar (om än otympligt). Ingen av de lösningarna är förstås riktigt bra.
Om man har mobile first som utgångspunkt, som Aftonbladet har, måste steg ett vara att bli riktigt bra på enklare grafik som kan göras snabbt av reportrar och redaktörer. Man kommer långt med lättanvända program som infogr.am, datawrapper och google fusion, och grafiken funkar oftast på både webb och mobil utan specialbearbetning.
Genom att lära vanliga reportrar och redaktörer att använda sadana verktyg, kan datajournalister som har djupare kunskaper fokusera på de avancerade grafiksatsningarna.
Men parallellt med att lära ut verktygen behöver man sprida kunskap om tolkning och utgörning av statistik. Det är inte helt och hållet en myt att journalister är dåliga på matte, eller åtminstone ointresserade. Grundskolematte som skillnaden mellan median/medelvärde och procent/procentenheter borde förstås alla ha koll på. Men sammanblandningar sker redan i dag i text. Det blir förstås ännu mer förödande och pinsamt om samma felaktigheter letar sig in i en grafik. En snabbkurs i att tolka statistik for alla reportrar och redaktorer skulle inte skada.
Även en relativt enkel grafik kräver dessutom att reportern eller redaktören har ordentlig koll på (1.) vilken data som ar mest relevant och intressant och (2.) vilken typ av visualisering som blir mest tydlig och spännande for läsaren. Målet måste alltid vara att visualiseringen ska gripa tag i läsaren direkt: den måste vara lättillgänglig vid första anblicken, även om den kan erbjuda mer for de läsare som vill fordjupa sig i t ex specifika skärningar av statistiken.
sajt med skrackexempel (fel pa statistiken eller visualiseringen): wtfviz.net
Lite väl lite info för en grafik…
 tumblr_n17xqtq7ve1sgh0voo1_500
237% – i ett pajdiagram…
tumblr_n109a6gPMr1sgh0voo1_1280
Joakim Ottosson, Aftonbladet

Sverige på efterkälke kring ekonomidata?

Det är andra gången som jag besöker CAR. Det är nu cirka två år sen som jag börja närma mig området datajournalistiska arbetsmetoder utifrån perspektivet som forskare i företagsekonomi med innovationsprocesser som huvudintresse. Under CAR 2014 första dagar har jag gjort några intressanta observationer.

En proppfull föreläsning jag var på handlade om ekonomijournalisternas möjligheter att arbeta med datajournalistiska metoder. Även om mycket på CAR handlar om den amerikanska kontexten så går det oftast att överföra föreläsningarnas budskap till den svenska kontexten.

När jag som svensk forskare möter amerikanska forskare, så är de oftast extremt avundsjuka på Sveriges långa tradition av offentlighetsprincip och myndigheternas arkiv om företagsdata som samlats om hela företagsbestånd i över hundra år. Jag börjar dock inse att vi ganska kan komma att vara avundsjuka på amerikanska forskarna och ekonomijournalister. Orsaken är att de amerikanska myndigheterna som har till uppgift att samla in och delge marknaden ekonomisk information i högre grad än svenska myndigheter börjar använda ett standardformat XBRL för rådatan som i hög grad underlättar fortsatt bearbetning och analys av tredje part.

I Sverige fördröjs införandet av XBRL, med argumenten att det går emot direktiven att förenkla för företagare att lämna information till myndigheterna. Att underrätta administrativt krångel för företagare låter väl bra men problemet är att man tappat bort orsaken till varför företag överhuvudtaget behöver lämna information till myndigheter.

När man införande aktiebolagslagen vid mitten av 1800-talet så var en av poängen att man begränsade ägarnas ansvar för företagets skulder (på engelska går bolagsformen under just under benämningen ”limited liabilities”). Det innebar att staten med aktiebolagsstiftningen spridit riskerna med företagandet till en rad olika aktörer i samhället vilket visat sig vara gynnsamt för ekonomisk tillväxt. Men det innebär samtidigt att aktiebolag har en rad intressenter utöver sina ägare som behöver få information om företagen. Går aktiebolaget i konkurs så förlorar en rad aktörer sina pengar: leverantörer, finansiärer, kunder som förskottsbetalat, anställda, staten osv.

Staten har med myndigheter som Bolagsverket och Finansinspektionen tagit ansvar för att alla aktörer i samhället ska kunna få information om dessa företags status så att olika intressenter kan ta ekonomiska beslut baserade på den informationen.

Men de senaste åren har statsmakten och myndigheterna i Sverige istället nästan uteslutande haft ägarnas perspektiv på den information de ska lämna in, men även allt mer låst in data med hjälp av betalningsmodeller för att få ut den. Direktiven har varit att det ska vara lätt för ägarna att lämna in data om företagen, inte att underrätta tillgängligheten till informationen. Det innebär att företag får använda format som pdf och jpeg för årsredovisningar och dylikt, vilket är svåra att maskinläsa och därmed bearbeta och analysera.

Bolagsverket tog tidigt initiativ med att börja testa XBRL, men detta initiativ har nu bromsat upp av direktiv som istället har fokus på att förenkla för företagen. I USA har man lyssnat på samhället krav på snabb ekonomisk information och där börjar myndigheter införa gemensam standards för rådata för att underrätta för användarna av informationen.

I Sverige går samverkan mellan myndigheterna som ska hantera ekonomisk information långsamt, samtidigt som man verkar ha glömt bort huvudsakliga syftet med att man samlar in denna information, nämligen att informationen snabbt ska kunna delges och analyseras av olika intressenter i samhället. XBRL sprids nu som standard över världen för ekonomisk information. Varför hänger inte Sverige på det tåget?

Och när ska det också komma standard för rådata för andra myndigheter i Sverige som gör att det är lätt att samla in, bearbeta, analysera och visualisera data för journalister, forskare och våra medborgare?

Tommy Larsson Segerlind – Södertörns högskola

1 2