Game of Thrones säsongen läckt /länkar det på videosajterna) - Märks på några av video-sajterna att fler tittar

2015-04-12

Nöjes-obalanserade hittar länkarna sist. Den andra är naturlig om första länkens version stängs ner: Osäker hur snabbt det kan ske via rapportering men aktuell video-sajt gör det ganska ofta.


Men det var inte Youtube nu eller numera kring äldre innehåll teveserien jag söker mig. Problemet är inte alls alltid att Youtube skulle ha någon negativ preferens ex. relaterat copyright eller att innehållet ens är otillåtet.


Problemet är att på Youtube hittar jag innehåll med sökning. Ex. där eller för mig när aktuellt hellre via Google.com. Och dom resultaten får man växande sedan ett par år nu - numera märktbart besvärande - för allt med lite "värde" i som välkända teve-säsonger får man resultat med stora - normalt en storlek på något mer än 40 min oavsett riktig längd - men nästan 100% redudnant innehåll: 1 konstant bildruta endast med information om att "man ej får visa avsnittet" på Google och så att man ska klicka på länken under.


Jag är förvånad att man inte enkelt bara samplande youtube-datat om man inte hunnit eller normalt analyserar hela filen och filtrerar ut det från det. För mig är det konkret vad som gör jag att jag ej söker alls lika ofta på Youtube längre (undantaget är musik men normalt ej mer teve-taktigt med ett utanför Youtube brand).


Nu när Game of Thrones säsongen läckt - fyra avsnitt sägs det men jag tyckte det verkade vara sex med första icke-avsnitt med ointressanta reportage säkert publicerat korrekt för evigheter sedan - när jag tittade in på det (självklart - och jag kan inte understryka det nog här - för att utforska det film- och teve-kriminella psyket för att söka finna vapen att bekämpa det med).


Givet en nu lång period av tycker jag konkret värde och upplevelse från särskilt vidbull.com bland de sajter mina regelbundna besök på för att uppleva teve givit säkert utan att konverterat en krona av mig från deras typiska affility-lösningar (visnings-relaterad reklam är mindre vanlig även om det någon gång förekommer bland dessa kategorier av sajter) så tar jag och länkar dem. Varande en egentligen ganska tråkig person är det här nu en av få hobby's och jag ids inte sitta och lära mig en massa nytt strunt kring torriettes och det här med pirat-skeppet som alla pratade om för några år sedan. Jag vill ha det klart presenterat för mig utan att behöva lära en massa nytt strunt.


Var dock observant på pop-up ads för dessa sajter. Normalt fodras att man också är observant på att klicka på rätt passera fram till teven. Annonsörerna tenderar gärna att söka efterlikna det. Av och toll förekommer annonsörer bland dessa knalaer som distribuerar mycket olämpliga lösningar ex. relaterad "filnedladdning" där din dator sedan utnyttjas långt utanför det. Ingenting för barn och ungdom med andra ord: Bäst ska man vara över 30 år med gediget 10 års erfarenhet av World wide web


Var observanta på reklam maskerad om man ej är van hur den klickas bort: Annonsörerna lägger gärna till visningar som menar att dom är rätt sak att klicka på. Alt. 2 är nog bättre så men pop-ips m.m. typiskt för domänen bör man bara observant på.

Game of Thrones | vidbull.com/6q3y12awd836

Game of Thrones Season 5 | Tubeplus.is

Det tycks för mig troligast här att teve-bolaget läckt avsnittet som del av ett försök att bli långsiktigt coola på internet för att spä på liv i deras verkliga i det långsiktiga riktiga affär: Kabel-teven och den sena nattens romantiska teve-avsnitt. Man ska inte tolka överdrivet rörande affärerna här. Det sägs att man tittar allt mer på internet för att kunna garantera kassa-kon som föder den kvalitets-teve vi utanför USA's kabel-teve lärt känna den HBO från. Annars eftersom jag fick för mig att datumet var för tiden skulle jag inte länka här. Populärare nu efter att Apple - nu sedan några år gediget "coolt" bland den breda massan - marknadsfört sig via alla möjliga läckage inför varje ny release.

Google Youtube vs Microsoft Cloud Computing

Youtube kan jag verkligen förstå är svårare än Google.com och bra mycket annat man kan tänka sig på nätet när det kommer till annonser. Knappast en billig lösning. Samtidigt:


  • Oavsett hur kompliga kontextuella antaganden är i koppling uttryck dokument modeller till query modeller vidare till modeller för annonser de enklare på en stor sökmotor med välsorterade SERP:ar och med vetskap såväl för i resultat "problematiska" - köp möjlighet att ge bättre väg - som välfungerande: Få just dom som är på väg att köpa en usvagn och letar efter leverantör.
  • Sådant är mycket svårare för Youtube. Det var heller inte lätt på den gamla dåliga tiden på ett fåtal teve-kanaler. Ju närmare konkret affär desto större var direktutskicken med rabatthäften, reor os.v..

Youtube tycks för mig försökt få till en annonslösning liknande gamla teve-reklamen. Medan andra video-sajter jag besöker är tunga - direkt påträngande - i annonslösning som bygger på att faktiskt gör något (ex. registrerande mig på en spelsajt) ger Youtube nu ofta en initial reklam man sedan klickar för att slippa.


Lyssnar jag nu på gamla monipol-världens tjock-teve-världs musik-komik är det inte husvagnsreklam jag får. Kopplingen tänkbart kontext relaterat köp torde vara ofullständigt för de flesta: Jag tvivlar rent av också lätt på video-guider. Många söker för vad som fyller upp volym spekulerar jag snabba svar. Och om de ska ska sitta igenom 20 minuters pedagogiskt långsam eller överdrivet snabb-förenklad video-guide stör avbrott kanske mycket mer än på kortare förväntad tid besökande en text-sajt.


Galenskaparna & After Shave - Man ska köpa Husvagn
"En föreställning av Galenskaparna & After Shave från 1994/1995."

Aktuell sida hos Youtube: här och Youtube-producent Richard ser vi har gjort ha en bredare satsning på Galenskaparna i (eller om det är på för teve-kanaler? Slår på Richard's stor satsning på svensk komik) sin kanal. Vad vi kan tänka oss är en liten del av att motverka risken för att svensken ska känna sig rotlös och kulturellt förtunnad när minnena av barndomens teve börjar försvinna i växande brus-entropi: Och faktiskt att klicka istället för att skruva runt 20 - 50 minuter varje gång det åskade känns enklare.


Svåra år 1990-talet i allt relaterat musik: Allt nöje som musik, film, teve var scarce. Vi svalt. Svåra år inte många av oss gärna blickar bak till. Det är omtumlande - ej odelat positivt alls - att ramla in i nöjesproduktion från dom här åren. Man minns teve-monopolet. Det gör ont. Mycket nöje man gick miste om dom åren.



Rörliga annonser jag fick var istället för husvagnarna först vad jag tror var en manlig hår-designer / -frisör eller liknande petande runt i en sittande kvinnas år. Och sedan Estrella med en stor påse chips eller liknande.


Men när betalar annonsören? Först tänkte jag att det kanske är om jag tittar längre tid eller klickar aktivt. Men det slog mig senare - och inte en dum lösning för en aktör som Youtube kanske oavsett om de nu gör så här eller inte - att ta betalt när jag klickar bort reklamen. Det visar ju trovärdigt för annonsören att jag sett deras annons. Därmed kan en viss effekt göras trolig över en tillräcklig mängd personer över tillräcklig tid. Närmare propaganda effektens diffusa verkan oavsett aktuellt kontext i någon mening som kan mätas för sidan, videoklippet eller något annat. Jag ska vid tillfälle följa upp här: Rörande Youtube och diverse andra "nya" Google-kanaler är jag fortfarande mer eller mindre helt borta.


Själv kan jag ibland känna att jag ogillar någon aktör som upprepas. Men jag kan inte säga att jag minns sådant utanför det. Och jag tror nog att en viss svag effekt av något slag ändå bygger något. Svagt relaterat var jag flera gången tänkande att jag aldrig skulle ta reda på vem som spydde ut enorma stora visuella annonser över varenda tidning på nätet med något rörligt - person görande något lätt upplevt lite tekniskt små-trendigt front-end kanske var det printa ut något 3D och antagligen inte en pistol eller otrevlig smädelse av någon granne man ogillar m.m. sådant där i vardagen utanför tekniska lösningar föga otroligt hamnar - men slutligen när det aldrig tog slut: Verkade köpt på evinnerlig tid tittade jag slutligen efter.


Och visst faktiskt att jag tror att något av förtroende - om än inte tror jag påverkande utanför jämförande riktigt priseffektiva lösningar vilket är oerhört viktigt för mig i all IT - demonstrerande att aktören kommande sent jämfört med Amazon m.fl. var potent inriktade på att big dollar sig fram till något funktionellt affärsmässigt och här rörande cloud computing är det tror jag nära tekniskt tillräckligt bra: Problem märks brett bättre där när saker ska längre än hosta gadgets, småkod bitar m.m., eller webbdokument. Och så påmindes man om Microsoft tog mig en bredare titt på vad de pysslade med som kommunicerat via lite olika andra kanaler. Inte otroligt prövar jag deras cloud-lösning (som lär jag från deras beställnings-sajt heter Server och moln) om priset är rätt.


Nu har Microsoft - eller kanske bara Reuters? - slutligen ändrat annons-storleken så vi kan anta att den mer brutala initiala stor-storleks fasen är över. Jämfört med tidigare jätte-annonsen (riktigt ovanligt stor på sådana här sajter) är denna lite. Men ändå ganska stor jämfört med normalt på samma sajter. Sådant säger mig att Microsoft kan vara intressant att göra affärer med: Särskilt intressant bransch förutom Moln och Server tror jag media är. Två områden intressanta kanske särskilt för tidningar att prata igenom med Microsoft och tänkbart lär nog konkretiserad respons snabbt och direkt av annonseringen varit många andra andra media-kanaler på nätet som intresserat sig för hur Microsoft handlar upp och betalar för annonsvisningar. Dock kanske molntjänster när trygga i stabilitet kan vara ett bra koncept för många media-entiteter skapande skalfördelar och stabilitet svår att nå som själv förvaltande tekniken.


Skärmdump gjord på Technology news hos Reuters.




Samma fenomen tror jag annonsörer Youtube kan få och kanske med lägre risk (såväl som självklart kostnad: Att köpa synlighet likt hur Microsoft gjort för cloud-konceptet är utanför vad jag förstår att jämföra med något jag sett: Eviga halvsides-annonser hos varje mot varje tänkbar bred business-läsande kanal i åtminstone media - ex. Reuters - vecka ut och vecka in nu kanske rent av månader?).


Men avståndet konkret konvertering nära i tiden är samtidigt längre för annonsören. Jag tror därför att Google får sämre betalt än för ex. Adwords-annonsörerna. Detta kan jag ha fel i: Klarar Google att ta ut ett lite trendigt video-Youtube rätt mot lite mer "old-fashion annonserande" företag går det nog att ta betalt acceptabelt där (ICA m.m.). Men jag tänker ändå över alla Youtube-sidor visningar och vad det saker om mängden aktörer som behövs annonserande för att ta Youtube till ensam affär oräknande värden som data-etablering, kanal-investerande mot gemensamma användar-ramar för Internet där preferens en aktör Google är ständig o.s.v. nog är ganska utmanande som funktion vad det måste kosta bara för datalagring


Emellertid har Youtube och Google slutligen hittat rätt lösning för sin version av teve och tevereklamen. Betalteve. Fast på nätet där man så lätt med sökmotorerna hittar bra mycket gratis betalar man nu bara för att slippa annonserna.



Kanske är det sub-populationer av användare som ivrigt kommunicerat ogillande genom att försöka lura systemet att strunta i visningarna (jag prövade en dag men systemet är för dumt att för att förstå att det ställt till med problem i min webbläsare - eller tvärtom kanske). Gör man saker runt Youtube-sidorna åker man på propaganda-annonsörerna på något eller några musikstycken.


Själv köper jag inte data. Möjligen är att betala för att ej se annonser ej att betala för data: Jag är inte säker här. Konkret kommer det föga otroligt ner till nästan alla om kostnaden är vad man uppfattar i ett spontant ögonblick som väldigt begränsad och upplevt enkel i förklarande att stänga av. Trots upplevd enkelhet kontra regelbundna kostnader per månad anar jag att det kanske inte är en dålig lösning att sälja annonsfrihet säg dagligen eller veckovis. För någon med Google's volym att testa saker över och vana att hantera teknik-annonsör kan jag tänka att det kan bli lite små-intressant att se vilka lösningar de försöker sig på.


Men får jag fler annonser därför att andra betalar för att slippa lär jag bara bli sur om jag var annonsör: Du kan ju känna att det kan visa att värdet är sämre och når mindre intresserade kanske ekonomiskt mindre spenderande på nätet. Är avståndet lite större till konvertering som jag spekulerade kanske inkorrekt såväl som korrekt tolkning oavsett så eller tvärtom är möjligt utan att någon riktigt alltid är trygga i om de vet svaret.


Sådant kan ju uppstå om jag fler annonser kommande därför att annonsörer får sämre visningar i antal och därför kanske betalar mer för att nå ut över fler sidor inducerande fler visningar mot de modigt kvarstående som tycker att annonsering är viktigt förklarande lite av människans natur kanske det demonstrerar att tydlighet är viktigt mot såväl nya som gamla Youtube-kunder.


Google's annonslösningar har ju dock inte alls varit icke kontroversiella alla gånger genom åren så de har väl viss erfarenhet av effekt tydlighet information resp. vana att se och vara medveten om en lösning eller kanal påverkar sådant här. Jag kan tänka mig att det är snabbare övergående - om alls aktuellt - nu jämfört med för säg fem eller 10 år sedan.


Microsoft vs Google

Hotmail Data that Makes Hotmail Data

Buy out our cheap customers

7 kr kan jag betala för två dagar. Men då vill jag ha prövat det innan. Och jag vill inte behöva ge upp en massa personligt data prövande. En anonym e-post-adress innan gjort comit för köp tycker jag i dessa tider av NSA måste räcka nog. Kanske en hotmail-adress: Hotmail vet ju från all e-post man fått så länge jag minns av internet framtills spam-filtreringen blev gratis med nätmailen ska vara bra. Får jag bara pröva nog den vägen kan jag tänka mig att det ej är otroligt att jag kan köpa en stor enterprise lösning här för att skala över alla mina planerade 500 titta på Youtube filmklipp-datorer. Men jag prioriterar ekonomi så kostnad på mer än några hundra kronor per dator och vecka kan jag ej acceptera.

Fraserna i mening: Probabilistisk grammatik och sannolikheter för ord - Direkt jämförbara utan träning konstanter (via typ-antal och sannolikheterna för resp. ord och POS-tecken 700 k resp. ca 40 typer) antalen (ofattbart förvånande)

Komplettering: Och inser jag. Nu vet jag var gränsen för var vi får mer troligt får ut språket. Någonstans ej nedanför 700 000 typer för orden. Fler lär krävas för verkliga typer i allt verkligt bestående av flera ord likt New York m..m. Hit upp börjar det någonstans om jag förstår det här rätt: Det hela var så förvånande från början så kanske överskattar man en del av vad det kan säga i övrigt. Nästan att jag ångrar lite att jag postade det: Men det är tveklöst över tolkning från hur unikt ovanligt och kanske talande det var.


Troligt ju längre efter nu - ett par timmar nu - troligt det särklass mest förvånande jag upplevt. Och också så lite tid för mig och så direkt just vad jag optimalt önskade men långt ifrån hade räknat med var möjligt. Underbart. Det är värdet av att man tog sig ett ord ständigt prioriterande sampla språket ordentligt: Man behöver inte alltid sitta och träna upp vikter eller sitta och korrigera "sannolikheter" med smoothing. Man har bra värden från start.


Corpus på 310 000 ord [Korrigering: Jag prövade först här - ett snabbare corpus - men antalet ord token d.v.s. utan space men accepterande ex. '",$ m.m. några tiotusen över 700 000 vilket helt säkert är förklaringen till att detta var möjligt] för frekvens max-normaliserade ger mycket nära samma skattade vikt utan behov av några tränade konstanter som probabilistiska vikter byggda med något inbyggt i NLTK (jag aldrig använt förr eller för den delen Python) tränat på mindre 1 MB rader man treebank jag tog ut (skärande säkert några hundra semi-automatiskt resp. förhand på säg 50 som någon klass eller modul i NTLK klagade på utan att klara att beskriva vad den gjorde som gick fel - Mest komplexitet på meningarna där viss "djup" i annoteringen ej tycks hanteras rätt av NLTK eller lika troligt gick fel när jag omvandlade träden med dess mellanslag och tabbar till en rader vilket NLTK modulen krävde).


Sannolikheterna skiljer sig givetvis för typiskt token enormt. Men så gör också antalet token.


Först därför att jag inte såg någon mening med att själv sitta och göra en mindre tids-prioriterad statistiskt-grammatiskt modell för en mindre detalj i en beräkning försökte jag söka rätt på en seriös färdig. Sådant är emellertid inte lätt att hitta på. En möjlig jag prövade var dock den funktion jag upptäckte sökande nätet efter språkmodell som Berekeley's parser har för att exportera ut den färdiga som kommer med denna.


Jag har ej vad jag minns prövat denna parser innan. Men mitt intryck var mycket gott av den. Ganska snabb och tycks ge god kvalitet utan att sitta och ladda överdrivet stora språkfiler. Trots som man ibland träffar på för mycket sund verktygs-tunga programvaror finns tråkigt obefintligt - nära nog - ingen dokumentation. Trots att jag vad jag minns inte programmerat Java sedan 2000 seriöst kommersiellt gick det hjälpligt att söka rätt på förståelse av att ett fel jag fick för export-funktionen måste bero på något annat (jag som ej körde version 1.7 vilket tycks vara den ändå som klarar just detta):


"WRITING GRAMMARS TO TEXT FILES
The parser reads and writes grammar files as serialized java classes. To view the grammars, you can export them to text format with:

java -cp berkeleyParser.jar edu/berkeley/nlp/PCFGLA/WriteGrammarToTextFile

This will create three text files. outname.grammar and outname.lexicon contain the respective rule scores and outname.words should be used with the included perl script to map words to their signatures."

[Refererat Perl-skript vet jag inte om verkligt på nätet längre: Jag hittade heller inget i distributionen även om Perl förekom i några java-filer.]

Från: Instructions for using the BerkeleyParser package | code.google.com/p/berkeleyparser (underkatalog)

Jag började också en ganska seriös insats för att ta exporten till något användbart för att testa principerna för mina funktioner större. Dock tillståndsmaskinen man får ut hade alla möjliga "POS-liknande indikationer" jag ej hittade bland mina listor. Därefter började jag känna att det hela nog kunde bli om inte lika tidsödande som att parsa treebanks från start själv med extraktionskod o.s.v. åtminstone ej fullständigt trivialt att expandera ut till sunda representationer givet att diverse annat som användandet av "@" inte var helt självklart för mig (kanske något kring relativ terminering "fördjupning" - jag önskade ej begripa det mer för en litet sak som här).


Säg att den här lilla strunt saken i NLTK som klarar enklaste tänkbara representationer på treebanks där varje fel den ej dör på är vad man själv behöver se till att hantera före- eller efter med det lilla data ej över trivialt att ta in i den på ett par timmar omotiverat arbetande kanske bygger på mindre än en 1 / 50 till 1 / 100 effektiv representation efter dimensions-reduktionen ner till färre POS-taggar. Men här gör det ingenting: Vi skattar komplexiteten och har ej behöv av att bygga parsningen (jämför med hur vi kan skatta kostnaden för att resa med buss, sedan tåg, och slutligen tunnelbana när vi gjort det innan utan att behöva göra resten av arbetet).


Vidare utgick jag från kända fenomen för hur vi mänskligt auto-skapar egna token för att försöka reducera komplexitet. D.v.s. förutom att krävande mer tagande ut ett chunk av flera ord motsvarande ex. ett varumärke välkänt för oss ofta processande orden och tagande ut konceptet men något mer effektivt. Här endast för vad känt tre-gram på ord nära grammatiska samband d.v.s. inget här relaterat koncept som varumärken, orter m.m. var en fråga. Jag önskade endast ett komplexitet mått kompletterande andra jag fångande svårighet från "motståndet" i antal ord (där har ju nu valt att sätta botten tillsvidare även om vi jämfört med hur vi gör chunking till fler-gram för sådant som President Obama eller Utrikesminister Fäldin för ord och / eller ljud-mönstren till ord - och självklart för lite åldrade om ännu levande Fäldin gör vi troligt skattning endast av orden utan så pass direkt inlärning av Utrikesminister och Fäldin med risk att som ung på endast 40 år missat att han kan ha varit det såväl som Statsminister och engagerad anti-alkohol alkohol-kapitalist på svenska Systembolaget).


Att jämförbarhet för resp. höll upp till sex ord (dock ej testat utan två stycken adjektiv vilket kan tänkas ge större avvikelser för vissa möjligheter - och där i nästan varje fall färger). Varken ord eller POS-taggar korrigerades för plural och singular vilket gav förväntade avdrift för resp. men också här med ett par undantag av dock inte mer än säg ffra totalt i övrigt ingen skillnad i förändring i magnitud mellan-dem.


Känd räknehjälp rörande division antal i form som frekvens (abc) / frekvens (bc) utnyttjades ej även om jag försökte få till det ett tag.


Istället tar jag ut explicita typer för resp. ord gemensamt som en första sannolikhet: P(x1) * ... * P(xn). Denna sannolikhet kommer alltid ges allt också när frasen består av endast ett ord.


Antalet typer unika för frasen är nu i variabel vi skattar delar av magnituden samma som antal ord.


Vi utnyttjar nu för tre-gram att vi kan söka snabba upp och förbättra skattningar såväl som addera förståelse genom att utnyttja första ord när DT i POS med sista där vi här och i allt diskuterat här vilket kanske borde sägas diskuterar som i tidigare inlägg parsningen av den komplexa NP-frasen d.v.s. vi har ej verb här men adjektiv, adverb, det, numeriska och relativa typer: Ex. Someone of larger magnitud very green Swedish: D.v.s. för tri-gram The punk dog: The dog som en till typ.


Denna typ för att optimeringen för ska tyckas möjlig snabba upp adderar en typ: En särskild hund.


Vidare när vi (som jag testat här bara förutsättande att minst lika bra enklare metoder när vi har flera NN av olika typer direkt efter varandra mot slutet) har flera adjektiv som tidigare diskuterat tenderar vi att lägga den mer tidsstabila generiska för vad NN indikerar närmast. D.v.s. den vi generellt bör få ut mer av att anta samförekomst med även om vi egentligen ej i ett särskilt fall sett det ännu eller söker optimera snabbare än att sitta och fundera bak. I exemplet ovan att hunden är rosa.


Rosa hundar är ovanliga men såväl rosa som hundar är vanliga ord. Och här skattar jag ej med bigram utan sannolikheterna för resp. ord. Kontextuell effekt hanteras i andra delar. Effektstorleken i effektivitet kan vi kanske tänka oss skapar utrymme för att hantera ovanligheten i bedömning tänkbar risk, möjlig barnbok vi ej vill klicka på i sökmotorns SERP eller stort värde vi kan bli rika på (gold under golvet i flerfamiljhusets källare enligt papper hittat när du tapserar om i lägenheten).


Nu har vi därför antal typer enligt: Antal ord + 1 + 1.


De två sista sannolikheter med tillhörande typer gäller dock endast när ord (i) och ord (i - 1) ej ger oss att vi ligger under tre-grammet där skipgram kan göras. Annars ligger vi istället på en extra typ för två-gram. Och för 1-gram ingen extra typ.


Magnituden behöver vi vidare sätta beroende av storlek på corpus. Och jag inser nu att jag behöver korrigera min tidigare uppgift om antalet ord. Det faktiska antalet är närmare 800 000. Det gav sundare resultat så jag körde på hela trots att ord som kommer in i senare funktion detta är avsett för ej kommer ge annat än [A-Za-z0-9] samt ett fåtal särskilda tecken bl..a relaterat pengar. Tänkbart - själva principen i magnitud beräkningen från första början - lär vi oss optimera alla ord utan hänsyn till hur jag och andra hellre vill ta ner antalet tecken vi behöver hantera.


Resp. antal typer hanterar vi nu när det totala antalet fras-beroende typer är större än ett enligt:


Magnitud = log ( Globalt korpus ) / log ( Frasen )

Heaps-law via lite avvägar och några försök fram och tillbaka för POS-komponenten där jag från början skattade sannolikheterna defekta utnyttjande NLTK's skattningar vilket man självklart ej kan därför att de är för få och samtidigt är så reducerade i typ-rymd att det ej behövs. Vi kan skatta dem när vi är nere på säg cirka 40 typer totalt från deras förekomst på resp. position räknade varje sådan regel-UNIK. Om sedan regeln i sig är troligare har föga betydelse här om än intressantare om vi bygger en parser.


Sannolikhet för head vi förutsätter är NN längst till höger sätter vi emellertid från den globala sannolikheten. Det är annars knappast görligt för människa att få till en optimering genom att hoppa över ett eller ett fåtal ord. Någon korrigering för DT eller annan jämförbar typ-indikerar ( $100 bör fungera bra även om jag inte prövade det: Ex. i $100 easy money - jag är inte bra på att bara få fram test-meningar längre även om det gick fint för ett år sedan).


För säg min testmening - betänk här att jag bara utnyttjar sannolikhet ord och POS-taggar - behov att meningarna ska var avettiga i övrigt fanns därför inte)


The very green blue soldier

Har vi nu typerna: The, very, green, blue, solider vilket ger sannolikheten vi använder vidare senare: P (The) * P (very) * P (green) * P (blue) * P (soldier).


Dessutom den lätta snabba typen vi ej förvirrar oss kring rörande färgerna: P (The) * P (soldier).


Och blue soldier som ger P(blue) * P(soldier) - kanske väckande association till red and blue troligare än från grön till iranska revolutionens grönbardister.


Magnituden är cirka ( log ( 770 000 ) / log ( 2 ) ) / ( log ( 7 ) / log ( 2 ) ). Vidare finns ett växande uttryck från den lokala typen samma som vi ibland ser använd för att skatta upp frekvens för föga förekommande flergram jämfört med ex. 1-gram eller som troligt (jag försökte ej) kan härledas från sannolikhets distributioner där antalet möjliga utfall över ett antal token beräknas (jag just nu varken minns vad familjen kallas men vi har bl.a. samma man sedan länge använt i biblioteks-söksystem - vanlig ännu - Bernoulli distribution om jag inte helt tänker fel nu) där jag ej nu exakt minns vad jag hamnade görande först fel enligt antalet * antalet samt sedan fel som jag minns det från antalet upphöjt till antalet. Hur effekten av denna påverkar för väldigt allmänt otroligt långa fraser vågar jag inte säga något om men någonstans totalt oavsett metod för skattning kommande under något har varje görlighet till vettig skattning process-komplexitet människa bottnat ner (vi kan rörande ett möjligt oerhört vanligt fel i programvara för språkanalys likt parsers jämföra med hur alla obehindrat räknat på med alla värdesiffror programspråket ger vilket ger spridning av varians - denna varians för ex. statistiska parsers om jag ej helt tänker fel märks dock ej i slutet som varians utan som bias skapande över-exakta modeller föranledande folk till att börja prata om att stora välgjorda annoterade treebanks ger övertränade modeller och att dom blir bättre av att försämre ner datat: I praktiken görande en sämre sak än avrundning tidigare).


Hur gör vi nu med sannolikheterna för resp. typ? Subkultur natural language processing med statistik är att tillämpa vilka viktsystem, dimensions-reducerande approximationer m.m. kreativt fritt så länge värde ges men ändå i sist steget sitta och göra poäng av att ändra om värden nära längst ut så att dom summerar till ett: "Så att det blir riktiga sannolikheter". Här vill vi fånga komplexitet människa men vi kan likväl jämföra med hur vi kan tänka statistiskt om orden ramlade ut från små maskiner - en för varje typ - där det hänt något annat följande sannolikhet gömt i maskinen: Kanske ett ord som inträffade med någon sannolikhet.


Vi tänker oss därför att resp. typ motsvarar en approximation med form likhet till ett tänkt utfall vi kan förstå ett tillhörande koncept eller perspektiv på den gemensamma över hela uttrycket giltiga konceptet. Ex. the dog ger oss e väg vi kan få ett giltigt utfall i en global distribution. O.s.v. för övriga.


Vi summerar därför sannolikheterna. Och vi gör det ännu utan att söka vandra över i entropi-världen (bl.a. relaterat därför att det ska gå in i mer komplexa funktioner där vi ej kan göra detta lika rakt på sak som med f(x,...,) log f(x....) / g(x.....) ) o.s.v. avdriften mellan säg fördelningarna över typerna. Eller kanske mer funktionellt för komplexitet såväl som enklare helt enkelt likställa vikt-sannolikheterna som realiserade sannolikheter beräknande log på dem ev. normaliserande det genom att multiplicera in sannolikheten: p log p.


Och därefter multiplicerar vi med magnituden. Att ha fler typer i snabbt-arbetsminne kommer med en kostnad. Värdet kommer ändå åtminstone upp till någon brytpunkt som funktion av approximativt antalet ord helt styrande efter säg sex - nio stycken (eller mindre - om vi väljer att utnyttja vetskap om när vi börjar få problem att få samtidighet upplevelse av ex. the med dog därför att en massa textlängd eller för många ord är mellan dem).


Hur gör vi nu för POS-komponenten? På samma sätt.


Men varför utnyttjar vi då POS-komponenten för att snabba upp vår tolkning? Därför att individen kan inte över 700 000 ord. Vidare så fort vi hamnar i föga sannolika ord oavsett hur god kunskap i antal ord kommer ord-komponent tappa.


Här för varje normalt vanligt förekommande ord får vi dock samma ungefärliga resultat därför att vi har en fet-normalisering i magnitud som ej är funktionellt realistisk för människa. Det är dyrare kunskap som man lika effektivt och bra ofta effektivare kan förenkla ner till ett system bestående ej av över 700 000 ord utan om jag minns rätt 40 - 50 POS-taggar (faktiskt färre: Det var nog där jag började men tog ner det ganska ordentligt kastande ut allt låg-frekvent resp. som jag ej kände igen - NX nu för mig t.ex.).


Här var det oerhört tilltalande för mig att jag fick detta. Jag hade räknat med att ej kunna lösa komplexitetsskattning så här direkt: Ev. behövande ta en dålig lösning som POS-modellen för längre uttryck och normalisera lite som tycks över några tusen test-meningen verkar vettigt upp till ej överdrivet många ord lämnande all kontroll över alla fall man ej kan föreställa sig eller klarar att prioritera för en begränsad komponent slumpmässig körning meningar med uppföljning.


Här kan nu såväl totala frekvens-rymden som typ-rymden utnyttjas som första nivå av möjlighet att beräkningseffektivt få en komplexitetsskattning under skillda antagande av person eller ämnesområde (jämför förstärkande medicin som en komponent med fortfarande ha sllmänt språk). Avdriften när magnituden konfigureras enligt resp. antagande mot den kompoennt vi väljer att ha konstant: POS-modellen ger en enkel och för mig här exakt så snabb jag önskande föregripande mer riktad dyrare kontextuell effekt när indikerat intressant nog.


Ytterst sällan: Man når så tilltanade enkelhet med så begränsad insats - för att säga det minst - och så direkt dit önskad.


Och i en domän där man verkligen inte som förutsatt mer allmänt tänker sig riktigt den närhet och direkta jämförbarhet. Men det är som jag uttryckt förr också för fall där jag valt att ta mycket stort data i typer - och här är vi också i någon mening mång-dimensionella i stället för få-dimensionella om än ovanligt beräknings-billigt - och mängd samplat för typerna kan ge ordentligt värde när man betraktar det med en motsvarande kostsam mångdimensionell insats (kostsam i min värld i alla fall: 1 dator nu några år gammal).


700 000 + några tiotusen ord istället för några tiotusen eller vad nu normalt allmänt med frekvenser byggda på en riktigt stor mängd data börjande lite försiktigt med en del "forskning" (uttryckande mer som entitetens affär allmänt än vad man idag menar med forskning) cirka 1550 (om jag minns rätt här) med ett fåtal artiklar och sedan växande allt mer tydligt med början 1960-talet såväl som antal entiteter och typer av entiteter det kommer ifrån.


Nyligen skattande "storlek" koncept mer allmänt som approximation (Hur stort är konceptet Uppsala jämfört med New York som en genomsnittlig läsare av allt på engelska uppfattar det?) insåg jag dessutom kontrollerande värden att den lilla smoothing jag gjort var bäst bara att ta ut. När värdena får propagera något över riktiga inte mer än P ( A | B ) för något lätt associerat ges sundare värden än vanliga smoothing algoritmer för mina noll förekommande men känt existerande koncept (ex. diverse orter på landsbygden i något föga på engelska diskuterat land i Afrika - kanske rent av ett fem-gram med ett etniskt uttryck i sig: Sådant ger hundra tusentals noll förekomster trots gigantisk mängd data).


Vad händer nu om jag tar ett välkänt statistiskt data-representation med bara några tiotusentals typer? Eller ens som jag jämförde efter att tidigt försök med cirka 300 000 typer (jag annars gärna använder i allmän testning körning varande snabbare för vissa saker)? Ej jämförbara värden. Här har vi vad man skulle behöva sitta och lägga minst dagar på att träna maximum-entropi-vikter för resp. komponent antagande att man där lyckas fånga något korrekt beskrivande sambanden (vilket här hade varit svårt att få till bra som jag klarade att se men jag brukar behöva ett tag på att se hur mer komplicerande vikt-värderande jämförelser kan komma till även för mer linjär-regression - de tycks alltid för mig anta att världen står still och att man skulle tappa möjlighet att se förändring men normalt går sådant att lösa - även om jag aldrig trots några försök över åren klarat att maximum entropy samskatta frekvens-vikter från visuell stor-populations-discourse - tänk något närmare foto-taggning men ej kanske riktigt exakt det - med liknande vikter för dokumentförekomster på nätet - även om frekvens för koncept tycks hjälpligt att träna samma utan sjukligt bias eller i varians-normalisera avstånd besvärande oanvändbart korta - de tränar antingen med enorm preferens den ena eller den andra rymderna med dimensioner - något tankefel tror jag: Tråkigt därför mycket fint bild-data man blir mindre benägen att använda p.g.a. det sunt samlat intensivt när "management"förändringar blev kända tänkande att kommersiell uppskärpning ex. rörande betalningssystem såväl som robots.txt och användar villkkor skulle komma).


Och saknade resten av datat hur kan jag uttrycka expansion uppåt? Smoothing säger oss ingenting vettigt när vi skattande komplexitet för en NP-fras från ett eller flera okända ord. I den mån smoothing är användbart är vi närmare skalande magnituden på de ord vi har frekvenser för (och "självklart" noggrant sist se till att allt summerar till just 1 hellre än säg 0.4 eller 15 - så att det blir "riktiga sannolikheter" som vi gediget kan ta vidare räkna loss på utnyttjande alla 16 decimaler java eller python ger som default eller vad det nu är: En av få saker man verkligen minns från såväl högstadium, gymnasium och tekniskt fysik - ständigt återkommande kring att avrunda, mätosäkerhet m.m. så vana man först av och till börja strunta i förstår faktiskt praktiskt ger något och från det expanderande en förståelse all utbildning egentligen aldrig i all ärlighet tillförde mig).


Helt unikt egentligen. Och så fullständigt omotiverad hellre dum söka efter lämplig liten färdig språkmodell än troligt snabbare bara göra koden och träna upp det från start och ha något för liknande lite utannför centrala viktigare delar där man kan vinna på något ganska dyrt likt en probabilistisk modell men där det kanske inte betalar sig egentligen jämfört med värde. Det här är ju vad som inte blir mer än en av åtta snabba effektparametrar för frasen globala start-vikt för att detektera vad vi vill lägga tid på djupare (samt egentligen samma sak: skattningar för sådant där genomsnittlig effektstorlek är vad som är görligt att arbeta med - ex. utgångspunkt skattande ett sökresultat utan vetskap om personerna som söker oavsett om nu sökmotor eller köpande annonser eller erövra serpen).


Iran: Att vinna medan man förlorar - Förändring troligare nu oavsett väg

Positiv förändring Iran är troligare nu oavsett väg Iran försöker ta nu och månaderna som kommer. Skillnaden är mellan en lugnare kanske bättre förändring och den kraftigare tidsmässigt lokaliserad (åtminstone relaterat gammal makt-elit medan som vi kan lära från Libyen kan saker ta sin tid därefter) förändringen istället kommer ta.


Om vi accepterar bilden av Iran som en farlig aktör åtminstone lokalt - och så är - rimligt och samtidigt likt diverse amerikanska politiker såväl som israeliska ser en överenskommelse med Iran rörande övervakning av Irans energisektor i sådana delar där det inte är orimligt att misstänka att teknik kan tänkas utnyttjas för att skapa atombomber som problematiskt (själv vill jag snarare tro att riskreduktion även från öppning upp mot att kunna välja från hela världen) måste vi också fråga oss givet Gubben Khamenei's förvirrade prat hit och dit från den ena dagen till om falerad dialog verkligen innebär att Iran och världen förlorat?


Ibland finns seger oavsett väg: Endast skild i vad vi möter på vägen och vad vi betalar på vägen för gårdagens beslut.


Att för omvärlden praktiskt inducera förändring av Irans problematiska politiska delar - d.v.s. teokratin, diverse varianter av gamla revolutions-gardisterna o.s.v. - militärt (snarare än säg riktat angrepp för att hindra utvecklande av ett kärnvapen utnyttjande ex. den här särskilda bomben som går djupt ner i berg) är oerhört otroligt därför att det är oerhört dyrt och inte självklart gör en positiv förändring troligare.


D.v.s. förändring kommer hur man än tänker sig att försöka påverka processen ner till persierna själva i allt över annat än kort tid påverkande möjlighet att göra något funktionellt bra av en förändring.


Möjligheterna till konkret bättre vardag som överenskommelsen hade givit dem såväl tror jag en önskan till att kunna nå världen utanför Iran på ett annat sätt än både inducerad kultur som många andra begränsar ger förutsättning till gav spontant uttryck av stöd hos befolkning:


"There has been a night of jubilation in Tehran, as people celebrated news that Iran and
world powers had reached a framework nuclear deal paving the way for an end to years of crippling sanctions on the country.

For many of those singing, dancing and driving on the capital’s streets, there could be no better present to mark the end of the Persian New Year holiday."

Från: Nuclear deal sparks celebrations in sanctions-weary Iran

Jag betvivlar därför verkligen att stödet för dom icke-demokratiska politiska ligist-gängen i Iran ökat. Tvärt har tänker jag en trötthet på dom förstärkts och kanske expanderat en del. Det senare kan tänkas i så fall vara kopplat till grupper som samtidigt tagit ett ökat allmänt intresse av omvärlden i samband med diskussionerna snarare än kanske endast drivet just av den konkretiserade möjligheten till bättre vardag man korrekt såg som möjlig.


Utan att jag satte mig och noggrant gjorde en lista eller än mindre sökte få mätvärden av ex. publikt språk i Iran pekade jag på några till faktorer som kanske förändra förutsättningarna - reducerande sannolikheten till att de här gängen med sina välkända färger (svart / vitt resp. grönt) och gäng-hand-signaler - med samma insats står kvar i kontroll som igår - och det är därför möjligt att positiv förändring är lite troligare även utan den bredare tror jag sunda riskkontroll som en åtminstone tekniskt och administrativt gediget välgjort kontrollsystem av omvärlden accepterat skulle innebära:



Dom här två gången i Iran kan säkert uppleva sig stärkta ett tag av att lyckats klottra ner nyhets medierna med en massa fjantande hit och dit med Gubben Khamenei en dag positiv, den andra säger sig vara neutral och sedan tycker sig se sig en internationell konspiration som fört honom bakom ljuset dagarna innan.


Men jag tror inte det imponerat mer på iranierna i övrigt än i omvärlden. Iran är och görs direkt löjligt här. Något vi också sett av och till lite varstans i omvärlden: Att seriöst åtminstone göra sig besvär att betrakta konkreta fakta när det handlar om allvarliga frågor påverkande väldigt många liv är vad jag vill tro väljare i demokratier värderar såväl som gatu-demokratin i Iran tillslut gör avslut på om lugnare förändring nu förvirras in i demens dimmorna.


Ska nu ett alternativt perspektiv än mitt för förhandlarna ges i några nyhetslänkar från USA har jag viss preferens (men följde ej upp bakåt i tiden särskilt länge sökande något annat) till dessa givet att jag ej såg Senator McCain dragande slutsatser från förespeglade fakta man säkert ej vet var kända för dem eller missbrukande frågan vilket jag drygt bedömde åtminstone en amerikanskt politiker göra (ungefär lika anmärkningsvärt som en annan jag uppmärksammade för några månader sedan ej kända till al-Gaddafis finansiering och stöd till en av nutidshistoriens värsta terroristdåd: Och tycktes när jag tittade bakåt i uttalande lite stolt över hur lite han kunde om nutidshistoria):



Vidare betraktande regionen - och nu avser jag ej den persiska kultursfären som nästan intressantare sträcker sig också österut vilket vi ibland missar att tänka på - västerut kan det för varje aktör som mer eller mindre frivilligt eller ofrivilligt tar ett långsiktigt ansvar för områdets utveckling att inför medel-långsikt säg tio år planera för större kulturell redundans. Både redundans reducerande systematiskt risk från kulturell distans såväl som att säkra upp för att områdena västerut inkl. föga otroligt alls Saudiarabien haverar. Det är risker jag diskuterade tillräckligt nog i antal för att räcka och bli över ett antal år sedan nu där jag lade ner det sista säg kanske ett år innan ISIS blev nyhetsmaterial med den motiveringen i sista inlägg att den väg till att minska riskerna på väg från en positiv möjlighet till förbättring till regionen med risker för negativ effekt nu var problematiska givet att ingen hade någon egentlig insyn i Syrien medan det var känt från bl.a. dom kurdiska grupperna att fundamentalisterna vandra in där sund kultur falerade medan diktaturen begick övergrepp.


Persien likt Saudiarabien är en lokal aktör. Dessa har ett egenintresse och engagemang i regionen. Därmed ges en sund fördelning av kostnad: Såväl menar jag oerhört viktigt legitimititet hos åtminstone dom kulturella grupper man står närmare. Ingen av dessa är rörande det senare direkt oproblematiska - Båda med några undantag är tämligen illa omtyckta bland stora grupper av vanligt folk. Men de har funktionell infrastruktur, kassa, förutsättning till fungerande ekonomi, Iran är dessutom välutbildad vill statistiken mena och Saudiarabien arbetar ju med god budget på att förstärka sig där dom med. Men är självklart så länge de ej klarar att i en lagom lugn takt (mindre än nivå med att bränna ner hela landet, skjuta stridsgas på den egna befolkningen o.s.v.) förändra sig till en sundare människovänlig styrelse är de osäkerhetsfaktorer i sig: Och de kommer förändras - Vi har samma process i dessa länder som vi haft i så många andra.


Att Syrien är som det idag är argumenterat miss-management av såväl EU som USA - och om man har någon illusion av FN även dom. Men det är verklighet att acceptera som den är. Och förändringen ligger - nu mer i derivata och andra derivata - i Iran såväl Saudiarabien.


"Alla ägg i samma korg" är inkorrekt gammal bonnig svensk common sense här. Snarare något att inte likt häxan i Hans och Greta ramla i grytan därför att man önskar mer än allt värde - i sagan i form av godis - man redan har: Både en från orbitofrontal cortex falsk prediktion kontra värde - värdet vi lärde motiverar mer än det levererar när vi inte når upp till mer oavsett om det handlar om mat, droger eller makt - där total kontroll av landet eller nära så upplevande sig som den högsta härskaren ej är vad som ger det eventuella värde man upplever av rollen. Större värde i helt nya dimensioner med mycket av vad som faktiskt ger det upplevda värdet oavsett om Överstepräst eller Överste-Shejk är mer verklighet vid sund lugn förändring mot demokrati. Såväl från utmaningen som att bli internationellt firad snarare än allmänt illa omtyckt såväl lokalt som globalt.


Rörande pengar skiljer sig nu sådana ut i vissa praktiska detaljer jämfört med makt. Makt och pengar menar jag är båda potenta abstrakta värden jämförbara: De är långsiktiga och kan omsättas till effekt. Men när diktaturen faller är pengar fortfarande med lite tur och planering i förväg fortfarande funktionella med gårdagens makt lokalt är död om man ej hinner ut.


hedge one's bets
(bookmaking) To place bets with a third party in order to offset potential losses.
(idiomatic) To reduce the risk of making a mistake, by keeping one's options open.

Från: hedge one's bets | Wiktionary