PS: Similarity (Fördelningsfunktioner approximerade av dendrit-träden)

2012-08-11
Det här vore elegant att ha bättre utrett och trevligt motiverat också med bilder, samband för neuroner och mer omfattande referenser. Emellertid har det inte blivit av. Det kunde för karma-balansering Indirekt identifikation av bias i similarity-operationer vara något de hos er inriktade på det här med biologiska neuroner kunde göra åt mig så kan jag titta förbi er någon gång under vintern kanske om jag reser över. Men välgjort i så fall med bra bilder som illustrerar principen (av dendrit-träd med aktuellt indikerat och med avbildning aktivitet o.s.v.). Jag ordnar ev. en ny telefon senare istället för Xperian jag endast har för surfning och kartan. Den fasta här är korrupt tror vi. Förutom dåligt fungerande en del "ovanlig" trafik i dess icke-telefoni-relaterade del.

"En mycket spekulativ möjlig förklaring till orsaken varför det i abstrakt modell givna uttrycket är så mångsidigt i det mesta relaterat beslutsfattande och via härledning inlärning oavsett om för en individ eller grupper föregripande uttrycket (dock insågs inte möjligheten från förklaringen vilken var glömd tills jag träffade på den även om den påverkade en del tidiga uttryck som indikerade riktning) ges där grundbegreppet är dendrit-trädens form och hur tillväxt påverkar fördelningsfunktionen tillsammans med hur de relativa avstånden till andra neuroner ger de exponentiellt avtagande sambanden över fler neuroner (SE Appendix NN till kapitel NN).


De två grundläggande beräkningsoperationerna enklast att se från den förenklade approximationsfunktionen som använder väntevärde och varians ser vi också en ännu tämligen spekulativ del-förklaring till varför de är funktionella i forskningen MIT presenterat [159]:


“Brain circuits process information through specialized neuronal subclasses interacting within a network. Revealing their interplay requires activating specific cells while monitoring others in a functioning circuit. Here we use a new platform for two-way light-based circuit interrogation in visual cortex in vivo to show the computational implications of modulating different subclasses of inhibitory neurons during sensory processing. We find that soma-targeting, parvalbumin-expressing (PV) neurons principally divide responses but preserve stimulus selectivity, whereas dendrite-targeting, somatostatin-expressing (SOM) neurons principally subtract from excitatory responses and sharpen selectivity.”

[159] Division and subtraction by distinct cortical inhibitory networks in vivo
Nathan R. Wilson, Caroline A. Runyan, Forea L. Wang och Mriganka Sur
Nature (2012)
doi:10.1038/nature11347


I approximationen ger subtraktionen storleksordningen för intensiteten relativt en jämförande faktor medan volativiteten den dividerande operationen tillför uttrycker “felmarginalen” vi normalt håller oss innanför vid beslut om vi ska reagera. Ingen skillnad i uttryck för beräkning finns som tillämpad givet inlärning oavsett om mer abstrakt jämförelse eller endast jämförelse av om vi ska reagera därför att signalen motsvarar vad vi lärt oss respektive under inlärning.


I den förenklade approximationen (oftast använd i detta kapitel emedan generaliseringen diskuteras i NN) uttrycks den senare komponenten via variansen. Mer grundläggande handlar det emellertid om hur troligt det är för neuronerna som samspelar i konvergensen inlärningen uttrycker att en inkommande signal ska konvergera till aktuell punkt..


Det är också vad vi kan uttrycka med Shannons entropi men det är inte på något sätt en nödvändigtvis bättre approximation. Snarare ligger approximationen med varians närmare med hur detta antas fungera i det biologiska neuronnätet.. Ingen liten matematiker som räknar frekvenser och gör logaritm-operationer med miniräknare eller tabell finns i hjärnan. Däremot sannolikheten för att signalen ska träffa en viss del av dendrit-trädet ger oss ett exponentiellt förhållande som är direkt relaterat till inlärningen. Tänker vi oss en ideal-figur för dendrit-träden (som dock mycket rationellt beroende av inriktning för neuronen varierar tydligt i form och som vi antar här därmed vilken fördelninsfunktion de uttrycker) kan vi anta en gemensam fördelningsfunktion och den som många av neuronerna kommer närmare är normalfördelningen.


Eftersom signalsubstanser som missar till och med hela neuronen med viss sannolikhet kan klara sig förbi monoamidoxidasen m.fl. reglerande mekanismer gäller att de kan träffa näraliggande neuroner vilka givet principen för hebiansk-inlärning mer troligt ju närmare är relaterade till aktuell konvergens gäller att vi tänkbart för konvergensen ligger närmare den typ av extremfördelning vi kan se för egen-dimensioner för hela populationer. Frågeställningarna rörande fördelningsfunktioner är dock minst sagt komplext och är ingenting som har prioriterats annat än som en konceptuell förklaring."


Från inledningen i:
Kapitel 16N (alt 11 i senare M):
STEREOTYPISK INFORMATION: INTENSITET