Systematiskt tänkande: Utmaningen att representera vetande optimerat ögonblicket

2012-10-27

Dessa två exempel på metod-sidor av systematiskt tänkande kan vi komplettera med att vi alla tror jag har en kraftig preferens för att inte se förändringar i tiden motsvarande dynamic frames som en utveckling av konceptet network structures:


  • Thinking in network structures: Mapping patterns of feedback loops, e.g. the solution to a problem for one party (arming itself in an environment perceived as insecure) is the problem for the other one (perceived security threat) which leads to reinforcing the first problem (i.e. the famous “security dilemma”).
  • Thinking in dynamic frames: Integrating time delays (e.g. counter-armament happens only later) and understanding that causes and effects in social systems do not follow a simple linear logic but are connected in a rather complex way and can be separated substantially by distance and time.

Från: A Systemic Approach to Conflict Transformation: Exploring Strengths and Limitations | Berghof Research Center for Constructive Conflict Management

Vi se en viktig egenskap vi i citatet och ofta annars tar som underförstådd relaterat till skillnaden mellan referensinformationens mer varaktiga inlärning och ögonblickets förändring.


Vad som sker nu i ögonblicklig förändring kan mycket väl ge systematiska långsiktiga förändringar och samverka via extremt komplexa samband med liknande kortvariga händelser bakåt resp. framåt i tiden förutom ögonblickets samtidighet.


Människans naturliga representation av det ligger dock närmare att de registreras och via decay försvinner ur vårt sinne med tiden om de inte direkt själva oavsett samverkan igen varit aktuella, där ev. detektion av tänkbara komplexa samband kommer indirekt via den påverkan representationen hade på annat medan den var aktiv i sinnet snarare än att vi sparar långa serier med registrerade händelser.


Värdet för människan under evolutionen bör inte skilja sig från det värde jag själv ser i arkitekturen till en analysenhet (se Drifting thoughts i kartan: Common sense - Arkitektur där feature relations och associationer runt koncept aktuella just nu samverkar med kontinuerligt tillstånd till ett nytt tillstånd att dra slutsatser och tolka världen just nu från): alternativa lösningar fodrar enorm tillgång CPU och ännu mer ram-minne för att ens komma i närheten av vettig prestanda.




Drifting thoughts som del av arbetsminne resp. relativt i arkitektur representation av varaktig kunskap. Klicka på bilden för att se den förstorad (helt säkert nödvändigt för nästan alla).


Förutsättningen för att det ska fungera är att det "komprimerade" tillstånd som skapas av de kontinuerliga händelserna och informationen trots att dess "minne" av vad som egentligen kom in i bästa fall är diffust ändå klarar att leverera detektion av värdefulla samband. Detekterade samband kanske vi inte kan härleda till exakt vad som orsakade dem men när representationen i tillståndet liksom indatat är baserat på kunskapsdomäner som mång-dimensionella hyperkuber gör det detsamma därför att sambandet tillståndet i sig detekterar är relevant i sig självt och motsvarande förekomster i verkligheten det ev. visar sig tillämpbart på kan identifieras via Flashlights nyhetssökning eller att en Agent Sniff släpps lös.


Kanske är detta kognitiva-paradigm förklaringen till varför vi har oerhört svårt att tänka oss graf-strukturer som samtidigt uttrycker t.ex. geografiska dimensioner och tidsdimensionen. Vi gör helst grafer över kunskap utan tid eller tidslinjer. Det är ju verkligen oavsett hjärnans metoder och organisation vad vi väldigt tränas till separation av.


För att hitta rätt vinner vi t.ex. mycket på att göra just separationen. Övergripande kart-koncept förändras i mindre utsträckning och vinner på mer varaktig referens-tillämpning. Enstaka händelser i tiden t.ex. en översvämning blir istället anslutna där deras varaktighet avseende påverkan och märken i verkligheten styr om och hur snabbt dessa med tiden blir diffusa och försvinner. Mycket idag indikerar också att kunskapens organisation oavsett område följer vårt "lokalsinne" och geografiska orientering.


Givet det i en del områden ex. relaterat politisk planering och militär-kunskapsorganisation ligger det därför nära tillhands att se geografiskt och tidsmässigt uttryck tillsammans med aktuella "mänsklig-kunskaps-domäner" (t.ex. kultur eller forskningsområde) som vägen till pan-representativ enhetlighet i vad man med en representation avser. Förutom en del NATO-länder gäller att bl.a. ev. Sverige närmar sig att införa sådana lösningar.


Min känsla är dock att värdet av det för en tänkt färsk ontologi utan historia är mycket begränsat om existerande samtidigt som flera risker tycks finnas relaterat till tillämpning av en sådan ontologi i situationer där antalet händelser sker i hög intensitet per tidsenhet och tillämpning avser reaktioner på händelserna vilka är av sådan natur att de kan innebära förändring i geo och hur geo förhåller sig till operations-synkroniserande tid (bl.a. relaterat implicita kollisioner omöjliga att prediktera därför att de skapas av förändringar i den verklighet ontologierna avbildar och inte styr). Det är dock oerhört svårt att utan ganska omfattande tidskostnad föra i bevis att riskerna är verkliga men principen om alla IT-projekts djävulsskap ger oss att varje risk vi kan se för större projekt vanligen realiseras.


Praktiskt tror jag också att motivet bakom införande av sådana representationer har mindre med att göra med att man faktiskt konstaterat ett värde för vår tänkta färska ontologi relativt andra beprövade koncept med kända fördelar resp. problem.


Istället tror jag att det har mer att göra med "desperation" över ett större antal befintliga ontologier, system, standarder m.m. med skilda representationer man redan har. Det problemet tror jag inte ett ögonblick på blir bra löst genom detta koncept för situationer där kvalitet resp. situationer med många händelser per tidsenhet kan vara fallet. För en bra lösning tror jag verkligen att det krävs att man med många människor sätter sig och går igenom datapost per datapost i allt som är väsentligt både för quality assurance och uttrycka en trovärdig position i en gemensam representation. Givet det har just representationens dimensions-typer mindre inverkan på tidskostnad.


Sådana insatser måste givetvis vägas mot befintliga kostnader för antalet system och vilka risker och skador de redan medfört. Att när sådana väsentligheter konstaterat funnits hellre rusa fram med något tämligen nytt man typiskt för nya IT-systems-projekt i större organisationer magiskt ska lösa saker är vad som vanligen bara resulterar i ett till IT-system med sin representation utan att man verkligen orkar reducera gamla system väsentligt (om alls).


Effektivisering i antal system bör kopplas effektivisering av informationens kvalitet och användbarhet. Det är svårt att komma ifrån att det kostar tid.


Vi kan förutom mer komplexa risker illustrera problematiken med data quality denna representation detta kan ge sken av att lösa utan att faktiska praktiska problem förändrats från att det kommer tendera att signalera fler träffar med relevans från geografiska, organisatoriska och tidsmässiga parametrar som går vidare till analyssystem än vad som med samma faktiska datakvalitet på resp. post som innan är verkligt (antingen lika många överträffar som innan eller som är troligare många fler därför att specifika ad-hoc lösningar resp. förståelse av datarepresentationen tappas när data tas från den nya enhetliga lösningen).


Områdets natur gör att stora mängder data tenderar att öka kostnaden för analys exponentiellt. Tidsbesparing i automatiskt konvertering från flera system istället för att seriöst gå igenom datat betalar man med högre beräkningskostnad när datat ska tillämpas. Särskilt i direkta pågående militära konflikter kan det vara väldigt begränsande därför att filtrering i analyssystemen för att söka identifiera ämnes- och kunskapsrelevans relativt mönster för data quality problem och skillnader i representation och benämning för kategorier, topics m.m. är svårt eller praktiskt omöjligt. Hanteras det innan är kostnaden för det möjlig att beräkna som linjär-funktion av antalet dataposter liksom tidskostnaden att uttrycka i antalet personer där faktiskt värde sedan realiseras fritt utan kostnad i skalning. I långsammare tid är det vad som istället kostar tid i att ordna access tillbaka till de gamla systemen pparallellt eller systemutveckla små-extra-system framför det enhetliga för att hantera datat.