Perception tid: Komplexitet och kontext

2014-06-21

Likt Do - Describe från forskning under första halvan av 1900-talet utnyttjar vi här "vetskap" från äldre studier men annorlunda vad som utmärkt överlevt hela vägen till färsk refereslitteratur och är väsentligt bekräftat i andra studier.


Jag utgår endast från vad refererat bland mina referensböcker inom psykologi och söker hålla det som uttryckt och refererat i Sensation and Perception (Schiffman) för att slippa referera studierna eller bedöma dem.


Kemisk "down": Kortare tidsupplevelse

Välkänt är att centralstimulerande droger förlänger tidsupplevelse medan lugnande och sömngivande droger förkortar upplevd tid. Båda i mening av hur vi skattar längden på en absolut tidsmängd.


Detta ligger med andra ord nära (men egentligen inte direkt motsvarande) hur jag ser på tid som intensitet per diskret samplingspunkt när nyheter m.m. tas in för automatiserad analys. Snarare än att direkt motsvara detta gäller att mängden neuroner som naturligt involveras i varje konvergens kan vara större och föreligger inlärning mot en annan basnivå bör det utan någon tvekan alls inverka tydligt på hur vi upplever tid i sig jämförbart med hur mycket eller hur lite vi gör när kraftigt avvikande från normalt för oss påverkar hur vi upplever tid.


Lustgas

Lämnande pentobarbital m.fl. droger där det är dokumenterat noterar vi det istället särskilt för lustgas. Lustgas verkar ytterst neuron-nära på själva mekanismerna för inlärning och just genom att inverka så pass lokalt och samtidigt för alla med föga diskriminering över typer saknas påverkan sammanhang oavsett om vi ser det som tid eller pågående.


Det är tror jag heller inte korrekt att se lustgas som motsvarande ex. pentobarbital reducerande aktivitet utan korrektare tror snarare är att se det som att göra just kontext meningslöst försvinnande.


Utan kanske kan rent av faktisk aktivitet ses som konstant under lustgas medan komplexiteten per konvergens går mot noll samtidigt som sammanhanget meningsfullt för varje konvergens går mot minsta tänkbara enhet.


Ej egentligen att vår upplevelse av tid givet samma information självklart förändras utan att det bl.a. inte finns någon passerad tid att jämföra pågående representation med. Via NMDA (kemiskt lika enklare kväve-syre-föreningar) indikerad inlärning men där relationer tid, sammanhang samma tid eller magnitud saknas innebärande att ingenting betyder något men p.s.s. ej heller påverkar framåt i tiden vad vi kan lära av det (och därför att lustgas hör till det säkrare vid mindre ingrepp åtminstone från aspekt av beroenderisk samt varför en del studier indikerar en möjlig snabb effekt mot depression: indikerad inlärning i vad feedback det gör i övrigt men ej problematisk irrationell mening i det utan just inlärning utan innehåll - om jag ej förstår NMDA fel).


Komplexitet

Vi hittar också studier refererade indikerande att visuell komplexitet såväl som komplexitet musik upp till en viss gräns ökar mängden upplevd tid.


Familiarity

Och välkända välrepeterade upplevelser vi lärt väl hur vi gör upplever vi kortare förfluten tid för.


En komplexare värld

Ingenting noterat tid avviker egentligen vad tidigare diskuterat rörande reward discounting men det understryker en praktisk utmaning jag ej brydde mig om att beröra: Hur vi hanterar att symbolen vid resp. diskret tidpunkt ej förekommer ensam i resp. sammanhang utan tillsammans med andra symboler.


Samtidigt kan man argumentera att svaret delvis i alla fall är indikerat av de algoritmer för användning av princip diskuterade. D.v.s. vi har för ett sammanhang en verkande komplexitet där denna möjligen behöver skattas för varje symbol avseende dess perspektiv till övriga för att få komplexitet verkande just för denna symbol (via similarity i min värld). Och komplexiteten ger oss modifikation av intensiteten under antagande om ett fast antal personer som processat sammanhanget (utan detta antagande gäller att hög komplexitet kan motsvara ej högre modifierad intensitet total utan istället mindre därför att färre processar det hela då det tycks tråkigt eller komplext men för jämföra entiteter publicerande kan man nog strunta i det ex. för nyhetstidningar separerande forskningsartiklar).


I den mening gör vi nu samma sak som indikerades i Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning och hämtar därefter upp den modifierade intensiteten. Innebärande bl.a. att de symboler mer central för mening och betydelse i sammanhanget ger oss högre modifierade intensitet än initialt från start under antagande att vi i slutet ej accepterar att vi introducerat symboler existerande som ej från början var givna.


Praktiskt kan man göra en del varianter jag ev. kommer avstå ifrån. Vi kan ex. normalisera distans mellan två symboler mot hur troliga två symboler är att förekomma tillsammans. Ett generellt värde av de similarity operatorer jag infört är att kunna ta ut sannolikhet för samförekomst mellan godtyckliga symboler utan att faktiskt ha det för samtliga tänkbara relationer (givetvis inte perfekt men heller inte direkt dåligt). Det i sig gör samtidigt att jag är ganska försiktig med hur jag använder data för samtidig förekomst i övrigt.


Vidare för effektivitet kan man reflektera om det kanske vid processanda nyheter räcker att betrakta resp. symbol samlat för en dag och där hantera relationer upparbetade över samtliga nyheter eller om man mindre effektivt i beräkning vinner tillräckligt mycket på att göra skattningarna för varje nyhet som processas. Mitt svar på det ännu i alla fall är att default är det mer effektiva medan övriga möjligheter sorterar tillsammans med annat dyrare likt natural language processing man gör efter mänskligt beslut (men därmed inte sagt att jag värderat det potentiella värdet vs kostnaden perfekt här ännu).