Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning

2014-06-17

Excellent kompletterande Subadditive reward discounting och föregående den:



Emellertid den väg vi valde nära praktiskt tillämpning analys språk i populationer ger oss en ganska enkel förklaring just när vi tänker oss att vi i näten analys sker söker undvika kontinuerliga uttryck för att istället hålla sig till symboler i form av ngram:


  • Antag indata en person med fyra symboler i form av ngram meningsfullt tillsammans.
  • Aktivitet från dessa kommer expandera kraftigt i uttryckt intensitet om den direkt upplevda intensitet ej tydligt understiger inlärd nivå där vi bryr oss att titta på symbolerna.
  • Därför utan sådan expansion är det bara dom fyra symbolerna. Ingenting av kontext just i situationen, personens humör än lite långsammare, inlärda samband för symbolerna o.s.v. är ju annars möjligt att få att påverka tolkningen.
  • Också är ju känt att även i direkt ord närhet aktiveras olika associationer nära egentligen alla sense ett ord kan ha där ännu ej hanterande sense i tolkning från kontext.
  • Samtidigt har vi ju konstaterat - och som vi tar som antagande här - att distans i aktivtet kommer med discounting. Och om vad som nu aktiveras ej är symbolerna själva igen eller i princip samma sak föreligger distans till dessa.
  • Därmed under vidare antagande att ny inlärning - kanske rent av emergens - ej är fallet kommer dessa representationer för meningsfullhet ej få samma uttryck utan reduktion discounting som vi utgår från. Här från exemplet kontext m.m. kan vi förstå det från att vi behöver de första tydligare i representation för att orka bedöma övrigt från dessa. De är ju den indikerande meningen vi vill arbeta upp till meningsfullt när vi tänker runt aktiverande fler neuroner samtidigt som när vi kommit en bra bit ut från där vi börjar behöver vi närmare göra direkta jämförelser med symbolerna vi började med och de förändringar till dessa vi adderat ex. från vår vetskap.
  • I nära relationer direkt mellan ord är sådant givetvis mycket enkelt. Mindre dynamik discounting gör det tydligare med mindre problem för praktiska algoritmer som för ngram-detektion (NJER). Men vi har ju i översättning - och förekommande ibland också för viss NER - motsvarande algoritmer i övrigt också utnyttjande kontextuell information som i motsvarande natural language processing befinner sig på ett större avstånd. Jag tror mig minnas att några tidiga algortimer IBM - brytande något av Chomsku's anti-dataanalys kultur - gör detta både för översättning resp. en variant för NER.
  • D.v.s. också när vårt resultat ska vara ytterst konkret och tämligen enkelt även automatiserat att direkt verifiera om resultatet är vettigt (över text i alla fall snarare än enskilda sense eller lliknelser) som för NER och översättning är det delvis vad som kan addera värde. Men att den kortare distansen mellan tolkning bara utnyyttjande ord nära (upp till och med 5-gram ger mer värde men tre och fyra-gram räcker långt) så är detta värde relativt orden direkt ganska litet.
  • Men om vi lika enkelt och effektivt önskar skatta discourse och polaritet - vad något handlar om - gärna slippande parsa varenda mening i grammatik och semantik behöver vi association och intensitet för ord och ngram bredare över större distans.
  • Och vill vi som ett mycket tänkbart område där vi just har ett fåtal symboler styrande beslut direkt skatta hur benägen en tänkt typ-person är att klicka på en annonslänk eller en länk till en nyhet i pagination behöver vi görande antagande om att också ett fåtal koncept motsvarighet ett sammanhang begripligt (under antagande en rationell surfare letande information) för personeg.

Därmed genom att vi får decay / discounting med motsvarighet i den växande större distansen skapas the heavy tail. Fler områden kan få viss aktivitet längre ut men här är den mindre sannolikt alls särskilt hög.


Vidare genom att aktivitet tills distans och positionering är sådan att den ej orkar längre eller alt. att aktivitet släcks ut via GABA gäller ju åtminstone länge i steg att vi når fler neuroner framåt än vi tog emot aktivitet från. Varje igen avfyrande neuron kommer ju få en bredd decay följande sannolikhet. Därmed har vi just log normala samband - med olika dynamiker rörande förändringar långt nedan för varians i den kortare närheten. Det hela är så klart i formen inte helt olikt vad vi får för globalt totalt språk vi har för ett tillräckligt stort corpus där antalet typer som funktion av antalet token tenderar att ge oss samma kurva. Ju fler token desto större antal unika typer har vi troligare. Men ju mer språk vi redan har desto mindre troligt kommer nytt språk vi adderar till corpus redan analyserat ge oss en ny typ. D.v.s. vi får en svans när vi plottar dynamiken i förändringen eller hur mycket vi vinner på att analysera mer språk.



Och vi får närmare symbolerna om de i sig är ganska besläktade fler med också relativt hög intensitet genom att vi söker interferens och samband. En slutsats från interferens exemplet med annons kan ge är att det är annons-information trots att just information om det saknas.


Större distans är konceptuellt vad som har motsvarighet i att det ej befintligt är förväntat från inlärt. Och när vi befintligt lärt något noga från information vi aldrig själva konstaterat verkligt - och sedan år känt felaktigt - kan vi ändå ha lite svårt att släppa det om det i sig inte mer tydligt inverkar på oss att vi tänker lite felaktigt (rent av medvetna om det).


Inlärning är därför vad som i form ofta kommer ha en upparbetad kurva liknande något av det omvända från hur distansen expanderar ut. Inlärningen är ju vad vi här ser ofta kommer av att vi ser oväntad interferens mellan aktiverade symboler - och interferensen skapad genom att aktivitet över oväntad stor distnas ändå når fram (ex. därför att befintligt kontext hos oss från något vi läst från ett annorlunda kunskapsområde än normalt) visar på en möjlighet vi innan inte sett. Här får vi om under antagande att reduktion som funktion av distans ej har den icke-linjära dynamik eller andra beroenden inverkande (d.v.s. också lämnande allt rörande påverkande distanser till vad vi får interferensen med m.m.) kända inlärningskurvan där vi från inlärningsfaktornn kan skatta ut (ej perfekt men ofta heller inte dåligt) hur möjligheten att fatta rätt beslut vid resp. tidpunkt är fram till att vi lärt slut. Se ex. för bild av kurvan och ett exempel på en praktisk domän där vi ser denna nära domän av reward:



Och så klart när bitcoin är brand coolt, känns trevligt kanske uttryckande för många en del andra världen rörande något hos internet och dom själva kring friare handel eller liknande är ju den bra efterfrågat. Annars när valutor är inarbetade mer stabila gäller ju välkänt att inflation kan föreligga. Om om en valuta oavsett pengar, värdepapper, tulpaner eller annat skattats upplevt för högt i värde tenderar normalisering att gå ibland också väldigt djupt och inte sällan under egentligen mer rationellt faktiskt värde. Viss respekt för risken att bitcoin kanske inte ens används om några år ska man ha inte investerande för mycket. Men jag om någon önskar självklart bitcoin all lycka och popularitet: Har jag förstått systemet rätt lämnas ju en trevlig log-discourse som är fint indata för analys och tycks när jag läste om det inte vad jag fått tag i tidigare från andra källor.


Vad är variansen? Interferens och information

Ytterst med den statistik vi kan mena att vi behöver här är att när man redan samplat det tillräckligt för att klara operationerna behöver man inte känna att någon annan trivialt utan att lägga ordentligt med tid klarar att göra det samma. Härligt gigantiska mängder språk i komplexitet tunga domäner (annars krävs än mer gigantisk samling för att få upp utgångspunkt för distanser längre ut) är att under antagande att vi behöver associationer inlärda mellan koncepten bl.a. för att klara att ta ut denna form av interferens föreligger genom antalet relationer och störleken expansion ett gigantiskt krav på statistik när vi motsvarande lämnar det lokala i 5-gram och vill titta ut mycket längre ut - rent av utanför nyheten och bak i tid för olika populationer.


Variansen är åtminstone inte vad vi säkert alltid sunt "bara" kan skatta för vad känd en symbol vi betraktar del av dessa system när vi söker interferens. Mycket ofta är vi i komplexiteter och kombinationer aktivitet sådana enkla skattningar ej går att få bara från inlärt. Sedan självklart kan isäkerhet fångas upp i hjärnan såväl i algoritmer. Men hur variansen ser ut övergripande för kurvan över hela expansionen kanske inte har något att göra med ev. ny inlärning. Där det ev. om variansen alls är det viktiga här är annat än något mer lokalt del av indikation (ev. tänker jag fel här faktiskt: det är svårt att resonera med grafer och man får gå över det några gånger vet jag av erfarenhet när man ska bättra på algoritmerna).


Jag kan eventuellt tänka mig att jag möjligen hade kunnat dela något av det men datat är för stort för att försöka ladda upp. År bara att få ner (om än med cirka totalt säg 10 månader intensivt samplande). Så jag nöjer mig i data att dela allt i datamängd mindre som nyligen refererat mina packs (se Spindlande Ericsson konkurrerande konkurrenter: Att indirekt indikera nätets "riktigare" kunskap och kultur istället för att upplevas död). Annars hade jag ev. kanske delat datat här. Jag om någon har föga av elitism och jag tror aldrig jag upplevt en lika prestigelös såväl som utanför sig själv engagerad i den större värld och den lilla människan. Vill den enkla mannen på gatan ha statistik kan jag se att det ev. är vad jag kanske skulle ge honom också i high value data ev. världens största samling av denna form av statistik (jag tror ej den är störst men jag vet ingenting känt som är större). Jag inser förövrigt att jag nog är juridiskt såväl som moraliskt hindrad här. Någon form av licensfil kring något jag nu minns som råkade samplas ner. Dessutom kanske privacy känslat data finns i det läckande ut i statistiken.Att bedöma någon av dessa risker är föga görligt för mig. Så just här känns det som jag tråkigt nog ej kommer dela datat.


I skam över att Uppsala Kommun i år hade reducerat gratis flaggorna på Nationaldagen i storlek såväl som kvalitet (dåligt papper med sugrörs-pinne besvärande liten till och med för alla annat än små barn och fullständigt olämpliga för en vuxen) påminner jag om Sverige-grafen jag längre tillbaka i slutet av "level I" sampling av just datat här (i ordningen samplingsprojekt cirka 15 - 17 när level I inleds - varande det näst sista).


Så vi avslutar med att minnas och se att jag om någon är generös med mitt data såväl som räckande ut en hjälpande hand till den svenska medborgaren protesterande detta fflagg-övergrepp. Är det så här Sveriges barn ska behöva växa upp? Svultna på sin historia, hembygden och utan den lugna trygghet i sin nationella identitet nödvändig för att minska risken för irrationella uttryck av främlingsgfientlighet och osund nationalism när de blir äldre? Är ingen mer vågat försvara vår gemensamma framtid? Ska den helt säljas ut till utlandet? Har ingen mer än stigit upp för att dela sin Sverige-graf tryggande barnen och Sveriges framtid? När ska denna girighet data såväl som småslantar för barenns Nationaldag sluta? Är Sverige-grafen Sverigens enda utbildning för våra kommande generationer i statistik om vad vi svenskar är? Så länge jag lever ska Sverige-grafen vara fortsatt svensk tillgänglig för Sveriges läraktiga och matematik-intresserade barn.