Geografisk lokalisering för anpassad presentation på nättidningar

2010-03-13

Den frågeställning om den geografisk lokalisering av besökarna som webbläsarna "möjliggör" som Utvecklingsblogg för SvD.se ställer är intressant:

"Detta kan användas för att förenkla för dig som besöker SvD.se. Till exempel att du inte behöver söka upp din ort när du vill ha en väderprognos, utan du får per automatik prognosen för den plats där du är. Det kan också användas för att visa annonser med erbjudanden som gäller bara den stad du befinner dig i. Kom gärna med fler förslag till hur vi kan använda det."

Från: Webbläsaren vet var du är

Först kan vi konstatera att möjligheten inte är ny däremot att den förenklas så att den kan användas av fler. Samtidigt tydliggörs att detta är en möjlighet för många fler både bland publicister och webbsurfare.

INNEHÅLL

1. Anpassad presentation av nyheter
2. Orter ger ny trafik
3. Meta-information för nyheter och artiklar
4. Orter är värdefull trafik
5. Geografisk information man har unik access till
6. Ny presentation av nyheter
7. Guider: Skapa "feta" artiklar med lång aktualitet
8. Guider: Meta-information till nyheter för ontologisk analys
9. Guider: Integration mot andra sajter
10. Guider: Att visuellt illustrera
11. Guider: Geografisk lokalisering

1. Anpassad presentation av nyheter

När vi diskuterar värden för media pekade jag på några möjligheter i redaktionell informationsinsamling i:

Geografiskt lokaliserad information för insamling

Vad SvD tittar efter här är dock anpassning av information utifrån geografisk lokalisering.

En möjlighet i övrigt är givetvis att anpassa nyhetspresentation utifrån var webbläsaren finns när det efterfrågas. Problemet är att nyhetssajterna har få egna funktioner för detta i övrigt. Deras plattformar uppfattar jag är väldigt statiska där större anpassningar är onödigt kostsamma.

Jag har egentligen svårt att tro att de vinner särskilt mycket på att själva bygga stort stöd för detta kortsiktigt. Detta är ju just det segment där de konkurrerar med alla aktörer som bygger generella funktioner för presentation och sökning.

Vad som är intressant är möjligheter som närmare i tiden kan skapa ny trafik och nya intäkter (t.ex. anpassning av annonser precis som SvD tar upp) snarare än nya möjligheter rörande presentation för befintliga besökare.

Hittar man en möjlighet som ger nya besökare och nya intäkter där grundläggande funktioner kan introduceras möjliggör det sedan mycket enklare alla möjliga funktioner.

2. Orter ger ny trafik

Jag tidigare flera gånger pekat på att media har stora outnyttjade möjligheter när det rör information aktuell under längre tid. Ett område det kan röra är information om orter. Det är i princip inte svårt att skapa sidor för detta:

1. Bygg en övergripande sammanfattande artikel om respektive ort. Notera här att det inte är nödvändigt att från start ha en komplett uppsättning orter.

2. Ge möjlighet att nå nyheter och artiklar presenterade om orten.

3. Indirekt eller direkt öppna access till bilder från orten.

4. Ev. skapa integration mot andra webbsajter med information om orten.

5. Utgår man från att också ett modernt system för insamling av information rörande platser och händelser finns går det självklart också att exportera ut en vy från den. Det vill säga möjligheter jag pekat på i flera artiklar som kan hittas via:

Business intelligence

6. Unika möjligheter tidningar på nätet har och som är dåligt representerade på nätet går att lyfta fram. Det rör inte minst historisk information. Inte minst möjliggör sådana tjänster att aktuell sajt direkt får stor uppmärksamhet bland bloggar, andra nyhetssajter m.m. rörande deras information om orter. Det ger både kort- och långsiktigt mer information.

För att realisera det har tidningarna givet direkt access till stor information de själva äger liksom erfarenhet och kunskap om andra datakällor unika möjligheter.

3. Meta-information för nyheter och artiklar

Det är klokt att kontinuerligt åtminstone privat lägga all relevant meta-information aktuella för nyheterna oavsett om det handlar om associerade personer, företag, geografiska positioner eller i övrigt relevant. I princip för att möjliggöra den typ av analyssystem jag pekade på snart är kostnadseffektiva (eller redan är det beroende på kunskap):

Ontologi låter mediekoncerner följa entiteter och deras relationer

Läs även övriga artiklar samlade på:

Business intelligence

En effekt av det är att oerhört mycket aktuellt för orter kan plockas fram från nästan vilket perspektiv som helst.

Foto: Khardan Licens: CC by-sa 2.0

4. Orter är värdefull trafik

Poängen med detta är att orter representerar värdefull trafik:

Personer som söker information om orter representerar mycket värdefull trafik. Det är allmänt välkänt att de utmärkt konverterar rörande t.ex. biljettköp för inrikesresor på flyg och tåg.

Det är vidare ett stabilt tillskott av besökare därför att:

1. Personer kommer alltid söka information om orter.

2. Tidningar kan lyfta fram och tydliggöra information om orter andra saknar. De kan dessutom bibehålla aktualitet över tiden. Detta gör att position och värde man tillför trafikkanaler går att bibehålla till lägre kostnad än konkurrenter.

Allmänt (utan direkt erfarenhet av orter) tror jag heller inte att sökord på Google eller övriga informationskanaler om det görs korrekt är särskilt svåra att ta god trafik från för tidningarna givet:

1. En stor redaktionell ej utnyttjad mängd information i form av nyheter och artiklar.

2. Tidningarna har per ort relativt övriga många relevanta inlänkar (liksom andra kvalitetsfaktorer som nu får allt större betydelse) men vars värde nu ligger utspritt över nyheter ej tidsmässigt längre aktuella för den som söker information via webbsökning.

3. Deras domäner är åldrade med i övrigt god prestation rörande faktorer som signaler förtroende utanför kvalitetsfaktorerna i två.

Se här för mer information tidigare guider:

7. Guider: Skapa "feta" artiklar med lång aktualitet

5. Geografisk information man har unik access till

Långsiktigt lika viktigt har man genom detta möjliggjort geografisk strukturering av all information (i förlängningen) tidningarna själva äger eller har lätt access till. Det handlar om nyheter, artiklar m.m. enligt tidigare. En till möjlighet är databaser som agerar mer eller mindre gemensam infrastruktur för tidningarna.

Utifrån dessa möjligheter redan realiserat på ett sätt som skapar intäkter kan man nu införa intressanta nya möjligheter även rörande presentation.

Läs här mer i de guider som finns samlade i:

8. Guider: Meta-information till nyheter för ontologisk analys

Allmänt tror jag också starkt på att man hellre tittar mer på hur större aktörer formellt strukturerar data än att man själv definierar egna system över samband.

6. Ny presentation av nyheter

Här går det att se en mängd möjligheter men gemensamt är att ingen ensamt tillför särskilt mycket trafik eller värde. Förutsättningen är därför det värde som orterna ger där införande av möjligheter kan ske på ett sätt som betalar sig. Därefter kan en mängd möjligheter enkelt realiseras till exempel:

1. Vi kan se hur andra aktörer inriktade på generella plattformar för presentation och sökning tittar mycket aktivt på området geografisk lokalisering. Att för utvalda nyheter kommunicera relevant lokalisering kanske på sikt ger ökad möjlighet till trafik från dessa.

Sverige på Google Maps (webbversion).

2. Nyheter av stort lokalt intresse kan akut snabbt presenteras mycket tydligt i widgets på webbsajtens sida. Brinner det t.ex. i Uppsala är det kanske något jag har intresse av att se när jag surfar in på SvD. Sidornas framsida har också uppfattar jag redan implementerat stöd för anpassning från olika faktorer.

3. En variant av två är att presentera nyheter utifrån var man befinner sig även rörande mobiler. På samma sätt som övriga punkter handlar det om möjligheter som blir enkla givet att meta-information redan finns.

4. Att från andra lösningar presentera anpassad visuell lokaliserad information. Det handlar självklart inte minst om kartor, flyglinjer, tågförbindelser m.m. I någon mening kan vi se sådan presentation långsiktigt om data som vad en lösning som i ontologisk analys är efterfrågad kräver för att nå.

5. Presentation av statistik och samband rörande publicerade nyheter. Det kan användas för att påvisa orter eller adresser som oftare skapar en viss typ av nyhet. Möjligheter är lokalisering av forskningsnyheter som jag själv funderat på att göra i snart fyra år eller troligt mer aktuellt rörande t.ex. våldsbrott. Det finns på detta sätt en mängd statistik man kan ta ut och presentera som billiga nyheter vilka ändå har stort intresse hos läsarna och genererar kvalitetsfaktorer i form av inlänkar m.m.

6. Fler tekniska möjligheter har diskuterats i några artiklar:

10. Guider: Att visuellt illustrera

7. Ännu fler möjligheter kan enkelt samlas in genom att göra en översikt över vad större aktörer tittar på. Några möjligheter där diskuterades i:

Forskning hos "viktiga" entiteter berättar om branschen

7. Guider: Skapa "feta" artiklar med lång aktualitet

Guider hur värdet från artiklar med lång aktualitet ger värden som kompletterar nyheter finns redan på Nyhetsbloggen (på en grundläggande nivå):

Tidningar kan bli "feta" via förändrad struktur
Publicera tester och recensioner rätt för störst värde

Läs rörande detta även:

Därför har tidningarna inte ökat Google-trafik som de borde
Jämförelse av yoga på Google för tidningar på nätet

8. Guider: Meta-information till nyheter för ontologisk analys

Inspiration i format för hur man kan se på strukturering av nyheter utifrån meta-information ges t.ex. genom att ta sig en titt på Google living stories:

Google living stories i öppen källkod

Intressant avsnitt är:

Data Structure Outline

9. Guider: Integration mot andra sajter

Möjligheter rörande integration mot andra sajter och presentationstjänster där geografisk information kan vara eller kan förväntas vara en parameter som möjliggör mer trafik:

Grundläggande guide för integration av tidningar på nätet mot externa sajter
Google Nyheter (Google News)

10. Guider: Att visuellt illustrera

Geografisk lokalisering sker långsiktigt mot illustration av nyheter och ännu mer artiklar med långsiktigt värde. Grundläggande har illustration diskuterats i flera artiklar som kan nås via:

Multimedia i tidningar på nätet
Illustrera med foto, filmklipp, kartor, teckningar m.m.

Mest intressant är givetvis olika karttjänster vilka bl.a. diskuterats i:

Hur mediekoncerner i underrättelseanalys kan visualisera och navigera geografiska data

11. Guider: Geografisk lokalisering

Fler artiklar hur geografisk information kan ge värde i redaktionellt arbete är i urval:

Geografiskt lokaliserad information för insamling
Satellitbilder för media
Hur mediekoncerner i underrättelseanalys kan visualisera och navigera geografiska data

Internet och problemet med systematisk avlyssning


Foto: Tetsumo Licens: CC by 2.0

INNEHÅLL

1. Skillnad mellan publicerad och privat information
2. Direkt access till webbplats krävs inte för informationsinsamling
3. Trafikanalys är möjligt oavsett om SSL används
4. Underrättelsetjänster intresserade av webben
5. Kinesiska kommunistpartiet på webben
6. Situationen i Sverige
7. Vad som samlas in och hur
8. Mer att läsa

Google genom att de allt mer riktat in sig som leverantör av infrastruktur och via publika API:er möjliggör och tydliggör det data som skapas får typiskt ett enormt fokus på sig. Ett fint exempel var det här enormt roliga inlägget som även om det saknar förankring i verkligheten tydliggör vad folk oroar sig för:

Google Responds To Privacy Concerns With Unsettlingly Specific Apology

Det kan därför vara meningsfullt att kort peka ut dom risker som är verkliga snarare än vad folk allmänt riktar in sig på. Google representerar vissa risker även om det knappast ligger i de områden som allmänt oroar folk. Innan dessa kan diskuteras och hur de hanteras krävs dock en översiktsbild av hur systematisk avlyssning bedrivs idag och tidigare.

I denna första artikel sätter vi fokus på den typ av systematiska avlyssning och dataanalys som sedan många år bedrivs av flera aktörer på nätet i vad som traditionellt avses med nätet (d.v.s. oräknat mobiltelefoni, satellitkommunikation o.s.v.). Det har skett med målet att:

1. Peka på tekniska möjligheter som funnits och använts sedan många år.

2. Tydliggöra problematiken diktaturer innebär som länge inte uppmärksammades allmänt i tillräcklig omfattning. Det förändrades dock under 2009.

3. Uteslutande för att inte uppfattas ensidigt peka ut vissa aktörer medan andra försummas på ett sätt som lätt gör en mindre populär (snarare än för att vara onödigt transparent av något personligt engagemang) peka ut en del småsaker även hos andra aktörer.

1. Skillnad mellan publicerad och privat information

Publicering och propagering av utvald aktivitet på webbplatser via standardiserade gränssnitt diskuterades i:

9. Geotaggning och geografiska data | Geografiskt lokaliserad information för insamling

När det gäller aktivitet enskilda webbplatser hör det till vad som utmärkt kan loggas av dessa för att skapa spårbarhet användbart för att detektera och reagera på brottslighet. Så har det alltid varit endast begränsat till vad webbplatserna prioriterat att samla in och analysera. Redan från de tidigaste versionerna av alla större webbservrar har möjligheterna funnits och utvecklade analysverktyg för denna typ av data har funnits sedan före 2000.

Däremot är det något folk de senaste åren glömt bort:

Nu när det exponeras öppet för att möjliggöra integration mellan webbplatser tydliggörs det samtidigt som möjligheten att använda det öppnas för alla.

För en underrättelsetjänst att systematisk följa denna aktivitet är det väldigt opraktiskt att hämta in det från enskilda webbplatser. Inte heller som vi ska se är det meningsfullt att göra.

2. Direkt access till webbplats krävs inte för informationsinsamling

Viktigare är att aktivitet på webbplatser ingenting som tidigare direkt access till webbplatsen krävt för att spara och analysera. Det går utmärkt för ett antal entiteter på vägen mellan klient och server att hämta upp data som beskriver aktivitet mot en eller flera webbplatser för att använda i underrättelseanalys.

För större webbsajter med mängder av användare är det också vad som mer troligt kan prioriteras avseende riktad automatiskt analys. I demokratiska länder kan sådan aktivitet relativt väl följas (om man kan det grundläggande området) via hur forskning och inköp prioriteras.

Det finns ingenting nytt rörande möjligheter som skapas nu eller de senaste åren. För ett land rörande kommunikation som går in eller ut till valda webbplatser att allmänt följa data eller enskilda personer är redan möjligt och i vissa fall realiserat.

3. Trafikanalys är möjligt oavsett om SSL används

Det är värt att peka på att SSL (TSL) inte övergripande påverkar denna möjlighet till trafikanalys eftersom SSL ligger i transportlagret. SSL liksom alla lösningar för att lägga skydd av trafik via kryptering är oerhört komplicerade och de kan praktiskt både lösa och introducera problem. Inte minst kan det gälla SSL som jag många gånger pekat på genom åren eftersom implementationerna är oerhört komplicerade och för dom jag sett koden för troligt innehåller många ej upptäckta säkerhetshål. Att närmare beröra det här är dock inte praktiskt och istället rekommenderas:

Transport Layer Security (Secure Sockets Layer) | Wikipedia
Secure Sockets Layer (SSL) | SEOTaktik
Browser Security Handbook | Google Code

4. Underrättelsetjänster intresserade av webben

Både i USA och Sverige har allmänheten ett stort intresse huvudsakligen på amerikanska aktiviteter. Delvis är det naturligt eftersom de har personalresurser, teknisk kompetens och bedriver en hel del forskning inom området. Efter 11 september har detta liksom mycket annat självklart också fått ett ökat fokus. Ändå upplever jag att det är mindre problematiskt jämfört med kinesiska kommunistpartiets aktivitet därför att de står utanför demokratisk kontroll.

Den amerikanska befolkningen är också kulturellt "lätt" "uppmärksamma" på allt som rör federala möjligheter att begränsa enskilda personers frihet och det skulle därför förvåna mig om utökade möjligheter som gavs under President Bush II inte bromsas upp och snarast de kommande åren inom vissa delar begränsas. Däremot behöver det inte självklart på samma sätt röra omvärlden.

5. Kinesiska kommunistpartiet på webben

Vi ska vara fullt på det klara över att kinesiska kommunistpartiet är oerhört oroade över webben och mycket motiverade att hantera de "problem" de upplever finns:

1. De ogillar starkt hur deras medborgare kan diskutera med varandra.

2. Att de fritt i stor bredd nu kan kommunicera med folk från demokratiska länder oroar dem. Det ger allt fler kineser något att jämföra med.

3. Kinesiska kommunistpartiet vill ha kontroll över detta för att detektera och begränsa "problem".

Jag har sett flera uppskattningar över hur omfattande kinesiska kommunistpartiets satsningarna på webben är. Den sista egna uppskattningen jag gjorde skedde för cirka ett år sedan och jag har sedan dess inte systematiskt riktat försökt göra om det. Denna uppskattade satsningarna till flera gånger större än någon annan publik sådan jag sett och indikerade t.ex. rörande antal medarbetare inräknat allt en bra bit ovanför 100 000 st medan andra uppskattningar då och senare ligger på 30 000 - 50 000 st.

Ingenting jag sett därefter tycker jag indikerar att min uppskattning är mindre korrekt och jag bedömer också att den skedde med bättre data:

1. Den byggde delvis på uppgifter från personer med direkt insyn i verksamheten (från 2007 och 2008).

2. Mer vetenskapliga metoder för att mäta aktivitet. Däribland tidsanalys på respons där vi kan se det som att om tiden det tar innan respons ges minskar trots att i språkområdet total mängd data som publicerar ökar indikerar det ökade förutsättningar tekniskt och/eller rörande personal. På samma sätt om man skalar upp mätpunkter - oavsett om så någonsin skedde eller inte - berättar spridd hos personer som ger något rörande personalresurser och hur de fördelas mellan normal surfarmé och ännu otrevliga aktörer i samma större entitet.

3. Allt vi efteråt sett indikerar att verksamheten verkligen är så pass stor som jag uppskattade den till.

Ändå upplever jag att de då och fortfarande är på väg att förlora kontrollen över situationen. Jag kan däribland se att andra nu allt mer delar min tolkningen från första halvan av 2009.

6. Situationen i Sverige

Tittar vi lokalt på Sverige är dessa metoder vad som möjliggörs via vad militära underrättelsetjänsten formellt önskat kunna göra. Rörande spårbarhet av aktivitet liksom besläktade metoder för detektion av riktade angrepp mot IT-system i information mer rörande annat bedömer jag det egentligen som föråldrade metoder. Det kan emellertid ha värden i andra områden oavsett vilka värden de söker och däribland bättre möjlighet att hantera tekniskt enklare men nog så problematiska former av denial of service. Jag ser därför gärna att den möjligheten finns om det kanske längre fram efter andra åtgärder kan kombineras med faktisk leveransförmåga.

Här kan man givetvis spekulera om att data kommer att delas (eller implicit redan delas) med andra västländer. Att ingen aktör inom media eller bloggosfär seriöst försökt ta reda på om så sker givet alla protesterna mot det kan jag uppleva som förvånande (särskilt som att så kanske skett via möjliggjord tappning vilket pekats ut några gånger genom åren av två kanske tre personer - även om jag troligen är den sista som nu står oberoende - men vem vet kanske fanns något samband mellan det och formalisering av möjligheterna som nu skett eller sker?).

Det behöver inte vara särskilt svårt att upptäcka även om jag själv inte brytt mig i att följa upp hur det ser ut idag. Metoden för att göra det är att följa vad som är publikt publicerat om nätdragning med början cirka 1995 och framåt (de tidiga åren är viktiga eftersom mindre kanske framgår nuförtiden även om jag egentligen inte tror det) och söka efter tapp-punkter med därifrån orimligt stor bandbredd till andra entiteter.

7. Vad som samlas in och hur

Vi inser från detta att det är förhållandevis enkelt att i rätt punkter tappa tappa data och att det möjliggör:

1. Analys av aktivitet mot enskilda webbplatser oavsett om SSL används eller inte.

2. För alla aktiviteter som ej använder SSL även avseende faktiskt data associerade till aktiviteterna.

Det är möjligheter som funnits många år och där sannolikt arbetade lösningar finns. Att genomföra det på detta sätt är effektivare än att hämta data från enskilda webbplatser oavsett om det är tidningar, Twitter, Youtube eller någon av de hundratals tjänster för e-post som finns.

8. Mer att läsa

Relaterade artiklar på Nyhetsbloggen:

Geografiskt lokaliserad information för insamling
Hur mediekoncerner i underrättelseanalys kan visualisera och navigera geografiska data
Ontologi låter mediekoncerner följa entiteter och deras relationer
Tidsanalys i grävande journalistik

Ännu fler artiklar rörande business intelligence och underrättelseanalys:

Business intelligence

Spännande framtida applikationer för Youtube

Detta inlägg på ofta läsvärda Blogoscoped pekar på några framtida applikationer för Youtube:

15 YouTube Killer Features of 2025

Flera tror jag allmänt är möjliga redan idag eller väldigt snart även om jag inte kan bedöma möjligheterna specifikt för Youtube.

Poängen med Google

Oavsett om Youtube eller andra liknande produkter diskuteras illustrerar det en egenskap hos Google som jag är direkt svag för. Det allmänna problemet är att:

1. T.ex. filmklipp på Youtube möjliggör en mängd andra applikationer.

2. För de flesta är det vägar som praktiskt är stängda. Implementation av flera grundläggande funktioner är för dyrt.

3. Det skapar en asymmetri rörande realiserande möjligheter som gynnar i olika segment dominerande entiteter.

4. Därmed stängs andra möjligheter vi annars skulle se eller så realiseras värdet av samma möjligheter väldigt smalt.

Googles vana att ge publika API:er till funktioner de själva realiserat för egna produkter förändrar detta. De blir tillgängliga för alla.

Värdet det skapar

Värdet av det jag menar ges och där vi fortfarande bara ser en bråkdel av (därför att ännu är det små snabba aktörer som sökt tidig återbäring som insett möjligheterna) inkluderar exempelvis:

1. Möjlighet till komplexa tekniska lösningar billigt. Komplexa både tekniskt rörande implementation och antalet datakällor eller punkter för integration.

2. Tydliggörande av vissa saker som är möjligt och realiserat men stängt för de flesta.

I båda fallen kan man tänka sig att viktigare samhällsvärden skapas. För utvecklingsländer möjliggörs IT-system för att lösa problem som med traditionella metoder knappast hade varit möjligt.

På samma sätt ser jag att större mediekoncerner realiserar unika värden liksom bloggosfär respektive sociala medier. Varken för vad Google eller dessa skapar är realiserat värde ännu i närheten av potentialen men det lär förändras och att alla ännu ligger efter är logiskt givet att nya möjligheter skapas väldigt snabbt.

Relaterat

Tidigare skrivit om Youtube:

Multimedia i tidningar på nätet
Videokameran Flip Mino HD bra för tidningar och bloggar
För ut ditt företag, produkter och varumärke på nätet i bredd
Annonser i bild blir viktigare för Google
Skapa fred i världen med Youtube i sex enkla steg