10%

2017-10-17

10% är en grovskattning av andelen medarbetare FBI - under det ej korrekta antagandet att deras totala medarbetare motsvarar antalet medarbetare och resurser att granska - som åtminstone länge tills stabilitet behöver göra uteslutande slumpmässiga kontroller säkerhet.


Och jag har nyligen prövat i för just en grov skattning tycker jag besläktat område nog tränande inlärning detekterande problem på jämförbara entiteter att kontrollera. Skillnaden är att kontrollen för FBI är kompetenskrävande och tar tid medan vi i vad jag ansåg mig kunna skatta grovt från vi endast uppdaterar vektorer representerande inlärningen.


Vi detekterar problem och korrigerar på dem. Detta är ej slumpmässiga kontrollerar. Men görande detta tappar vi distributionen på vad vi söker nå. Det bygger på görligheten att detektera.


Det går ej uteslutande att göra för den här typen av säkerhetskontroll därför att distributionen kan ej trovärdigt på risknivån skattas. Rätt person eller "dator" problematiskt och distributionen av defekter - vad som läcker - saknar all meningsfullhet med hur den såg ut innan. Det går ej att humpa samman incidenter före och efter och göra trovärdiga bedömningar från. Läckage är potentiellt tyst. Så utan initierad information från den som hämtar upp informationen går det ej att skatta därifrån heller.


Därmed krävs också att för varje resurs - person eller annat - som är aktiv vid en tid (säg diskret) tidpunkt (d.v.s. ej tio procent av antalet personer i en lång lista som slumpas utan aktiva - Det är görande något som något kan ske. Gör 100 medarbetare 100 ggr mer en arbetsam månad när mycket händer har fler problem realiserats och informationen i sig från normal verksamhet döljer problemen om kontrollen ligger konstant.). Den slumpmässiga kontrollen betraktar aktiv enhet så långt som anses försvarsbart för att detektera problem. Därmed skattar vi också mer trovärdigt (men knappast i närheten av perfekt) problemen och om vi gör det innebär det också att vi förutom att identifiera problemen bygger vetande om dem funktionell åtminstone i närstående tid.


Brytpunkten ligger föreslår jag utan att motivera det mer vid tio procent under fas där befintliga initiala problem fortfarande gäller. När man passerat ut från den är det något annat. Mer än tio procent och vi börjar lägga resurser på att hantera resurserna vi investerat i kontrollen och påverkar vad vi kontrollerar. Vi kan löst se det som en form av överträning av den distribution vi skattar av problemen (en andel av vad vi får där är bara resultatet av att vi märks - påverkar vad vi betraktar. Förutom reducerande aktivitet vi vill se också störande folk i allmänhet som kan börja bete sig dessvärre utan orsak alls "misstänkt" därför att de besväras av att något märks som de ej vet vad det är eller också om de vet vad det är därför att de mentalt misstänkliggör sig själv vilket är väldigt vanligt hos folk: Vi är flockdjur vilket sådant torde vara relaterat till.).


Stort nummer 10%. Likväl. Ett alternativ för att mjukt nå tio procent är ju att börja där man stå och öka på tills det är korrekt tyst. Någonstans knappast långt före tio procent. Om man ej gör purge kastande befintliga assets i en hög och titta på varje i tur och ordning mycket nog innan man tar in det i något nytt contained. Men det är dyrt också. En kombination är starkt men ännu dyrare.


Att standardisera minsta leverans. Säg att det hela ej levererar. Det är då möjligt att regularisera en minsta effekt. Helt enkelt slumpmässigt avlägsnande entiteter (personer här för att det ska vara intressant). Eftersom välfungerande är i mycket större andel tas en hög kostnad. Men det förändrar samtidigt radikalt bakgrunden / kontext / verksamhetens normala funktion varje gång det sker vilket ger inför nästa tidsperiod ny förutsättning att betrakta och söka defekterna från. Vi kan rent av motivera det statistiskt betraktande alla medarbetare som ett sample av vad vi anställer. Och varje ny uppsättning som ett (via omvägar egentligen) nytt sample, och de terminerade som ett sub-sample. Varje nytt huvudsakligt sample är nu per omgång ett sample av en population som är mindre än innan d.v.s. reducerande komplexiteten.


För att ej utesluta det egentligen uppenbara man kanske ej ser stirrande sig blind på terminering medarbetare och samples hit och dit. Går det att förändra kontextuell verklighet radikalt nytt på andra sätt. Dock för stora organisationer med många tio tusentals medbarbetare och här flera hundra tusen är det kanske ej det mest omedelbara. Men att ex. flytta om var folk sitter är en enkel sak - eller om de kanske sitter med någon särskild. Det går också (för att mer än illustrera vara komiskt vilket mycket i mänsklig historia och nutid gör troligt är "coolt". ) kan man också ta ut grupper av medarbetare på weekend eller veckolång semester - eller bara på en pub och bjuda dem på mat och alkohol och se vad som händer. Kanske vet man redan att "Erik" ej klarar att hålla samman benen och går i säng med vem som helst men vet man också att han - eller för det gender-politiskt balanserade: Dock är vi oftare i en man idag - att han vanligen under natten installerar på hård- eller mjukvara på sina kollegors - man eller kvinnors datorer - troligen inte och troligen gör ej de flesta lössläppta män - själv väntar jag korrekt säkerhetsmässigt tills jag är gift så man inte får någon trojan på datorn - sådant men har vi anledning att tro att det förekommer är det en annan sak. Metoden som sådan är ganska diskret - mer än man förväntar sig givet normalt skvaller i organisationer - folk har ofta anledning att vara diskreta kring sådant och är de berusande kan minnesbild vara diffus såväl som att man ej söker en djupare förklaring till beteendet utanför reducerad impulskontroll från alkohol och sexuell-motivation. Som jag lärt mången gång på krog får man verkligen se till att kunna lita på sig själv när kvinnorna kommer och försöker få en dricka överdrivet mycket gratis. Så fler alternativ finns. Förändrar vi kan börja se. God princip så att komplexitet arbete minskar resp. att inga kostnader p.g.a. dålig kontroll av vad förändringen egentligen innebär blir verklighet: På ett sjukhus bör man ex. säkerställa elförsörjning kuvöser och hjärt- och lungmaskin innan man förändrar "bakgrunden" genom att ta ur en propp.).


P.s.s. tagande ut 10% fortlöpande så gör vi sample av distributionen (ex. men kanske också datorer) medarbetare följande vad ej känt inkluderat bland dem. Medan gående på indikation så får vi samples av vad som motsvarar vad vi redan lärt att känna igen. Så vad helst nytt är odefinierat. Givetvis kan man tänka sig att man sätter sig flera experter kanske slugt erfarna på att göra samma sak själva eller på att upptäcka sådant och reder ut vad problemet är. Men resultatet av det kan aldrig bli att vi kan skatta hur säkra vi är på att problemen är lösta därför vi vet ej distributionen på problemet. 10% krävs och ej "övertränande" och ändå klara att skatta distributionen.


Fortsatt jämförande med ensemble learning - och för att anknyta NSA - kan man tänka sig att slumpa features d.v.s. hur kontroll sker. Men jag känner ej att man är rätt ute om man försöker det här. Tar du ut en person för slumpmässig kontroll börjar det kosta direkt med en initialt bump och då går man över allt tills man tittat nog. Och jag tror (men är verkligen inte säker) att man är mycket stabilare ute när kostnad gäller för kontroller om man har information om distributioner relaterade resp. de features man slumpar mellan. D.v.s. vi vill kanske inte slumpa kontroll av feature vart man åker med bilen med samma sannolikhet som att göra en billig kontroll som att kontrollera data som passerar från dator till internet, eller om personen bär något på sig gående ut under spekulativ kanske ej inducerad situation av stress (d.v.s. att någon springer från en plats har tror jag motsvarigheter i populationer av personer). Det blir också som svårt förutsättande en massa om sig själv och vad man kan om man inte gör allt och istället slumpar mängden man kontrollerar. Det blir komplext. Medan görande mycket på allt är enkelt och ej dyrare. Principen slumpande features anknytande NSA är ju dessutom att vi slumpar en mängd samples av dem och skapar beslutsträd. Men jag känner också (och är inte alls säker i närheten) att det kanske naturligt är sundare att dessa är vad man slumpar för motsvarande parallell användning medan sub-samples data medarbetare där man i varje fall gör samma standarduppsättning kontroll är enklare att bedöma sundheten hos sekventiellt.


Mer spekulativt är kanske värdet där att få snarare i möjlighet att överraska. D.v.s. att vi antar att vi ej kan lita på vår metod som sådan därför att vi vet egentligen inte mer eller är trovärdigt bättre än fienden är. Så ibland gör vi ej saker best practise utan gör något annat vi ej beslutar alls kognitivt. Utan vi slumpar det. Om nu något säkerställer hantering kontroll genom att skatta oss bryter vi nu direkt vad de har skattat med bevisbar nivå. Måste vi välja A och B och båda är jämförbara finns förövrigt bredare om vi bedöms annat än dumhet i att själv välja det utan man slumpar. Annars om motivationen för det försvarar budget sitter något och skapar modeller av dig. Varje gång du slumpar förstör du dock dessas förutsättning att leverera trovärdighet från de faktiska beslut du fattat under förutsättning att man ej kan filtrera bort besluten du slumpade. Så om osäker asset X rörande säkerhetsnivå så slumpar vi. Du kanske i extrem-fallet verkar vara ett insiktsfullt geni eller helt dum i huvudet (därför du nissade något uppenbart och visa versa men det säger åtminstone inte något om dig som går att åter använda och potentiellt tar ner andra modeller i kapacitet under förutsättning att man ej antar slumpdragning). Men självklart ej att ta till överdrift: The Dice Man. Det är ex. ej säkerhetsmässigt sunt att droga medarbetare som ska i möte med fienden för att förändra deras preferen ser också om ej märkbart i något av dem eller andra d.v.s. inget lidande. Jag tror sådant är väldigt ovanligt men det är värt att ta med som ex. därför att det illustrerar en generisk risk mycket i denna verksamhet ibland lider av: Förstår man ej begränsningen i ett annat expertområde tolkar man ofta osäkerheten i det felaktigt. Här är osäkerheten om effekt enorm och för det mesta jag känner till - kanske allt - kan förvisso avbrott mot mönster ske men enormt bias från själva effekten drogen i sig gäller introducerande mer redundans än som fanns innan. Tänker vi oss nu som rimligt är att man bygger modell per individ resp. per situation och alla kombinerationer av det samma kommer nu drog-manipulationen gå in som meningsfull information i flera kombinationer. Det samma gäller "galna" personer. De är ej mer slumpmässiga annat än i det triviala som saknar mening - tvärt om i allt komplext mer upprepande. Betrakta här gärna konst från ex. Sydamerikanska shamaner för en trivial indikation och notera upprepning i mönster resp. återkommande symboliska stereotypiska representationer från kulturen: Låg komplexitet att gissa rätt på kontra mycket annat - om än kanske svårare än säg för en landskapsmålning av en känd plats vilket dock ej är lika relevant att jämföra kognitivt läckage. Vidare ligger egentligen bara fyra funktionella huvudgrupper redundans etableras från i mening av motsvarighet effekter som självklara kemiska motsvarigheter till finns mot: Vi kan reducera aktivitet via vad som påverkar GABA via någon mekanism, vi kan öka aktivitet via diverse funktioner från acetylkolin till dopamin, vi störa informationsbehandlingen mer övergripande vi antingen tryptaminer eller fenetylaminer, medan jag tror allt i övrigt levererar mot någon av dessa i vad relevant just här. Ex. morfin mot dopamin resp. indirekt serotonin och mindre förstått - jag antar det i mina modeller kognition att de speglar varandra delvis men det är ej vad som har medicinska evidens så vitt jag vet men jag tror starkt på det: varför mitrazepam / Remeron, Effexor, tramadol / Nobligan, Strattera m.fl. blockerare återupptagning nor-adrenalin också är svagt opioida - nor-adrenalin.).


Jag har ej läst den här sammanfattningen tidigare (sökte efter en annan jag upplevde praktiskt värdefull ej antagande att jag är överdrivet intresserad utanför de praktiska frågorna eller att jag är bättre än jag är på att hitta information relaterat dem i pdf-dokument) men gissningsvis tar den upp en del av det jag försökte illustrera från ensemble-learning (eftersom det kändes aktuellt för mig). Och om inte bör den åtminstone visa vad man kan söka på: