Vad har Google, Microsoft m.fl. egentligen för beräkningsutrymme per användare? För kontext-hantering och prediktion av sökningar

2013-09-02

Om vi ex. tänker bibehållande sökordskontext kan jag se en del intressanta värden för att ta ut kontextuella sökord från upparbetat sammanhang i olika tidsperspektiv mer än eller kompletterande ex. gamla sökord som dyker upp inverkande sökresultat (vilket i alla fall för mig bedömt en sökmotor på nätet - Google) ger en del intressanta saker hittande mötespunkterna man inte behöver ha sökt direkt efter.


Praktiskt inser jag att jag inte riktigt har referensramar vad en större budget ger för praktiskt uttrymme att uttrycka tillståndsinformation för annat än ett fåtal användare. Är det t.ex. praktiskt görligt att ha en tillståndsrymd säg på minst 10 000 (mindre bra egentligen) upp till optimalt gärna närmare 100 000 koncept med säg fem till tio instanser för pågående, tillstånd över tiden, predikterande gissande sökningar som kommer för att verifiera o.s.v.?


Jag kan lätt uppleva att det i nuvarande implementation lätt tynger min dator men det behöver kanske inte säga särskilt mycket vad vettig hårdvara och mer hårdvarunära implementation klarar att prestera (nuvarande kod är Perl men förutom split och Filehandle anrop skriven för 1-1 portning C utan konkurrerande-process problem ej abstraherat).


Det var ju inte riktigt utvecklat för det här utan mer med tankar applikationer rörande riktade sökning i ett mer riktat non-public sammanhang resp. uttrycka tillstånd för entiteter man önskar avbilda så att säga över tiden. Men det är ju egentligen sammansak. Uttrycka vad vi söker efter med språk motsvarande representationen och följa upp det från hur väl man kan prediktera sökningssammanhang som kommer från tillstånd för att indikera antingen vettig on-going eller emergence när intresse förändras.


Men oavsett hur elegant det kan tyckas: långsamt. I min dator. Hur det är med mer hårdvarunära praktiskt har jag som inget referenssystem för.


Något lite personligt i alla fall fascinerande är att jag kan se lite ytlig kanske likhet mellan domänen av sådana här tillstånd med hur man (jag alltså) skapar en mindre föränderlig utgångsmängd att använda för att ta in vad som händer och sker nytt i datamängden.


LSA och allt liknande är ju så mycket antingen ett område - eller över allt språk så intet-sägande med mycket av små-underliga missar. Oavsett algoritmerna där jag ligger en bit från LSA sökande ge möjlighet att kunna beräkna similarity friare från kontext utan att behöva räkna om eller korrekt utnyttjande grunddata - handlar en del i grunddatat så att säga innan ex. adderande in news stories on-going om det personliga engagemanget så att säga. För att få det bra oavsett hur non-exact and science det verkar att välja ut datakällor från behov för att få en god balans. Jag tog ex. nyligen görande en mycket större P ( A | B ) matris för kontext några gig av data framtagit för att bygga Wordnet-sense detektion (ex. associations-matriser med dimensions-reduktion o.sv.) för att täcka upp en del lite udda associationer men samtidigt introducerande en del tyckte jag (och med vetskap om att jag regelmässigt nära nog utan undantag ser sådant numera) skräp förskjutande saker till vad jag ser kommer ge problem när man lägger på news stories växande fel i värsta fall - vad jag såg troligen åtminstone balanserande skjutande på ev. hantering via kompletterande corpus påverkande konkurrerande: alla plos-artiklar publicerade resp. filer med ungefär kategori-relationer över ett större antal mycket smala specialistområden särskilt prioriterat ekonomisk vetenskap, lingvistik, cognitive science, äldre generationer från 1930-, 1960-tal och 1970-tal ungefär av icke-vetenskaplig psykologi (Freud o.s.v.), miitary intelligence, image analys och liknande områden.


Att ta ett stort stycke data och processa in är bra värde. Ger bredd i associationer adderande konkret värde också när av typ Google Ngram härrörande från lokalt-meningskontext för koncept associationer. Men det förutsätter verkligen att det kommer tillsammans med andra datakällor för vad vi faktiskt söker vilket kanske lättare illustrerar samma sak som ovan ev. lite otdyligt uttryckt. Pågående från vad som kommer nytt i nyheter är det vad som bäst sköter sig själv givetvis men för att klara områden utan att genomsnittets tjocka mitt gör intelligensen dum eller underlig divergerande när den ska fungera i sammanhang vi kanske inte vanligen motsvarande talar om till vardags behöver man känna på datat själv kanske lite som att se ytan på det även om sådan känsla verkligen är snabbt öveergående när man fått till det.


Ofta dimensionsreducerar man ju sådant här data. Men därmed kommer ju begränsningen. Ser vi det enkelt motsvarande vad vi ex. gör med varians-maximering eller olika varianter av t-test, entropi m.m. förutsätter det ju att vi klarar att säga vad variansen är för olika begrepp och or såväl hur de förekommer med varandra. Givetvis ganska stabilt funktionellt särskilt i data av skolbokstyp mindre ofta tydligt föränderligt. Men i nyhetsvärden är det tydligare hur mening och sammanhang för koncept ganska snabbt förändras.


En motrörelse finns förvisso: "meningsfulla titlar" på webbsidor istället för titlar som klarar att tala till oss i så många fler dimensioner än att uttrycka sökord närmare sträng-similarity.


P.s.s. när vi söker webben efter data vet vi knappast särskilt ofta om området är lite mer komplicerat (snarare än bara önska få upp lite Wikipedia-liknande sidor) vad som är det optimala sökorden. I tolkning konceptuellt liknande hur vi tolkar och förstår "talande" nyhetstitlar av sök-kontext eller enskilda ord finns en likhet inte på något sätt trivial men intressant.


Ganska nyligen lade jag ett inte helt trivialt i tid eller utmaning (om än inte teoretiskt varande ett välstuderat område) på att skapa ett undersystem för att tolka språk i grammatik och syntax o.s.v. i natural language processing. Sådan tolkning har jag aldrig sett associerat vad vi diskuterat här adderar särskilt mycket relativt kostnad (inte ens i närheten).


Däremot är det ytterst potent i tolkningsområden bredare intressant när vi processerar nyheter, händelser m.m. i data för att förstå och tolka sociala strukturer och interaktionen mellan människor. Vad X gör här, och var vi kommer då, och påverkande B o.s.v. Personligen tyckte jag följande studie nyligen publicerad Plos One var enormt komiskt illustrerande just det:



Kanske väl illustrerat redan i sammanfattningen:


"From the symbolic dynamics of these elements, the courtship-generating language was determined with extreme confidence (significance level > 0.95). The languages categorization in terms of position in Chomsky’s hierarchical language classification allows to compare Drosophila’s body language not only with computer’s compiler languages, but also with human-spoken languages. Drosophila’s body language emerges to be at least as powerful as the languages spoken by humans."

Men självklart tänker vi oss ett mindre flock-styrt djur ej talande till andra motsvarande vad nyheter till sin natur helt handlar om organiserande vad att göra, punkter, händelser o.s.v. är det ungefär samma sak. Uttryck och förståelse och känsla av sammanhanget för olika platser i sammanfattad rymd inte krävande att vi trösklar igenom alla händelser vi upplevt i en plats är däremot mindre grammatiskt - mer konstnärligt eller kanske fotokonst eller musik-drivet.


En scen eller bakgrund (eller musik) vi adderar händelser just nu eller som vi minns från förr (eller adderande lyrik ovanpå musiken: korrektare egentligen applicerande musik till pågående händelser eller ett sammanhang där vi gör något då lyrik ofta ligger ganska konceptuellt konvergerande närmare än alltid vara särskilt berättande).


Vad jag verkligen kunde önska vore dock något enklare färdigt rörande basdata och enklare sammanförda statistiska mått till en dokumentmängd för att slippa det ganska tunga i corpus bearbetning. Något Bing att köpa om man hade pengar (men snarare mer realistiskt i kraftigt ekonomiskt problematiska företag med upparbetad big index arbetet). Även om jag själv inte direkt sitter och bygger ICA liknande associationer är resultatet av hela den familjen såväl som faktoranalys och PCA väldigt lätt att sunt ta som indata för att skapa utgångspunkter. För mig ger Bing! kraftig känsla av ett ganska (rent av gott och) gediget arbete i grundteori och detaljer ungefär jämförbart med allt annat men saknande det jag tror har krävts och kommer krävas konkurrerande lösningar som har ett tänk ovanför (även om kanske skillnaden minskat en del ev. mindre relaterat just Microsoft). I mer Hans-ekonomi-sammanhang vad man skulle se som vad man kan önska sälja och inte överdriver pris för. Bra kvalitet: likt en god bruksbil lite rostig kanske och inte kommande med något från de övre-prisklasserna men inte något allvarligt fel i vad man gjort. Mer arbete att addera ovanpå. Praktiskt här behöver dock Microsoft bäst är jag övertygad om Bing! som koncept inte alls bara som webbsökmotor utan mer för stöd långsiktigt mot alla produkter även om de kanske inte självklart egentligen behöver göra indexering och logik runt det själva.


Möjligen störs man en del här av personligt intresse. "Mindre" eller "mer" än att tanka applikation sökning naturligt är jag egentligen mer road av vad det säger om oss kollektivt just för hur det inverkar lite framöver. Oavsett vad egentligen gäller att representerar vi vetande handlar det alltid om sökning. Konceptet att webbsökning är big business tror jag dock inte riktigt på i innovativa områden (varande dock ingen direkt praktisk affärsexpert där). Känns väldigt uppdelat med svåra områden runt om närmare revenue (annonsering o.s.v.). Riktade mer kompensdrivna segment är givetvis mer intressant och indikerande möjlighet kanske (såväl som svårighet) underligt under-utnyttjat i affärsområden jämfört med besläktade områden ex. inom applikationer närmare politisk-analys och strategiska-resonemangssystem (military intelligence o.s.v).


Vi kom ifrån min egentliga fråga men mycket matnyttigt att tänka igenom själv i alla fall. Och vi avslutar med följande tanke:


Medan stora andelar av webbsökning handlar om att få befintligt dokumenterat / vetskap eller få reda på var något finns. Handlar nyhetssökning dels om vad som sker just nu men också med det som utgångspunkt om vad som kommer inträffa. Optimalt vill vi egentligen söka framtiden även om det praktiskt inte går (vad jag vet i alla fall). Drivande brett kommer det ofta ner till intensiva kanske lite oroande nyheter. Men i seriösa sammanhang vill vi ju ha användbara hypoteser.

IT-krigföring är inte tycker jag helt bra för Syrien oavsett sida

Jag tycker det här är underligt såväl som irrationellt:



Om nu pro-diktatur kan jag kanske se drivkraft i prestige såväl som att US uttryckt problem i området.


Men samtidigt vill man verkligen provosera fram en konkret respons i samma domän givet att nationen redan har problem med infrastruktur i det direkt spatiella området? Vi kan där också se en humanitär-risk jag inte tycker att någon ska ta. Oavsett preferens rörande konfliktens sidor tror jag alla kan se att det är en bra sak att infrastruktur bevaras oavsett domän för krigföring. Pay-back oavsett mål kan ju lätt (lämnande webbservrar som mål jag antar den syriska diktaturen struntar helt i) spilla över styrsystem vattenförsörjning m.m. eller kanske energi.


Och givet tiden konflikten redan pågått bör det inte framgå att små-provoserande bygger upp en förståelse eller ses som en illustration av diktaturens problem?


Och i den här kommentaren bygger ingenting på någon vetskap om att diktaturen i sig har något beslutsansvar för sådant här. Jag har verkligen föga av uppdaterad bild av dom här samhällena. Men praktiskt tvivlar jag lätt givet teknisk-historia att den större leveransförmåga privat eller i länder ligger associerat med Syrien.

Europas inrikes- resp. utrikespolitik

Inrikespolitiken tycks "vi" alla ha lätt att engagera oss i. Men utrikespolitiken är väl delvis konsekvensen av att lämna tomma områden. Saker fyller upp dem. Inte sällan skapande värde åtminstone när det gäller Europa.


Engagemang och kunskap såväl som befintligt pågående i processen skapar befintlig struktur. Den moderna världens post-koloniala samarbeten för britterna såväl som Frankrike är väl ett övertydligt exempel på det.


Ett nationellt värde kan uppfattas traditionellt av det tydligt utrikespolitiskt imperativa. Jag skulle ljuga om det inte var verkligt men kanske möjligt mindre i det ständigt kontinuerliga som effekten den engagerade intensiteten kan få bredare.


Bredare mer stabilt men kanske länge vinnande på visst mått av konkurrerande försök till engagemant tror jag vi vinner på att försöka hitta ett funktionellt EU samarbete hellre än att ge upp området fortsatt.


Närmare den vägen börjar det kännas som att Frankrike kanske visar vägen. Nu är jag en vän av mycket (särskilt därför att de ofta försöker vilket är första steget alltid nödvändigt) den brittiska utrikespolitiken men ett närmare det kontinentala klustret engagemang är viktigare för EU. Det är ju där mycket saknas.


Och kanske definierar Frankrike fundament som kan nå dit. Därmed att jag tror att mer engagemang och som sådant mindre av koncept av att inte göra hellre än att lämna ansvar: att någon gör något runt EU och utrikespolitik - ens mer självständigt del av den mängden - är inte problemet alls i domänen. Om man inte så att säga vill acceptera att upptäcka om fem till tio år att ganska från befintligt tydliga fundament byggts upp att följa med större tyngd i olika områden eller om inte lämna området.


Att engagera sig, göra det vettigt funktionellt och visa upp det - samtidigt som kontaktytor byggs i sådana områden - är starkt.


Frågan är om det kommer lyfta den franska ekonomin också. Tråkigt nog har jag ingen färsk nyhets-sampling på ganska länge så jag har inte följt upp effekten av tidigare mer intensivt engagemang i Afrika ganska nyligen. Jag hann precis se viss kanske som resultat effekt i Japan av att de vågade visa lite av de egenskaper man traditionellt associerar till manligt agerande (men egentligen ofta är ett mer kvinnligt praktiskt epitet tror jag ungefär lika ofta under samma omständigheter) viss spridd av intensitet.


Frankrikes ekonomi långsiktigt såväl som nu kan i allt gynnas oerhört av att man inte bredare i folket och företag trans-nationellt accepterar ett pågående problem utan just uttrycker intensitet genom att försöka göra saker. När man slutar att försöka accepterande domänen som problematiskt hindrande det är det ekonomsikt farlig inlärning som när den sprids drar ner allt.


Att visuellt såväl som i ord och tal visa engagemang och möjlighet att påverka världen i områden vi uppfattar som stora är en väg att uttrycka motsatsen till pessimismens letargi.


Rent av att kvantifierar vi i områden som dessa så långsamt över tiden pågående resp. uttryck - ibland kanske rent av identifierande en tydlig kulturbärare jfr sedan många år ibland återkommande reflektioner kring en jag tidigt noterade år bakåt och långt efter jag slutat att sampla svenska nyheter av och till följde upp kring det: Dagens Nyheter kraftigt i det negativa kanske som konsekvens av mediekrisen, Bonniers överbelöning och också först noterat i samband med at valutorna gick volativa i Baltikum - att vi kan se nivå som krävs för att kompensera.


Att kompensera ska tycker jag sällan i mycket behöva ses som kräva mer än att visa fram vad man redan gör. Samtidigt en del saker är ytterst intensiva i varje mening man kan mäta i kollektivt språk.


Just områden som Libya, Syria, m.m. med lokaliserad extremism krävs också en viss inre-styrka relativt rädsla och förmåga att hantera i antal men väl så problematiska risker. Mod för att orka att realisera det moraliskt korrekta och det värde det fyller kulturen bredare med för dom som orkar.


Att våga gå där andra känner rädsla och heller fryser skrämd av attityd-mätningar inte bättre än att de ännu inte klarat att prediktera (och därmed är strunt) ännu i historien. Såväl som det ottäcka i att våga göra där en färdig lista över vad de flesta länder och inget stort land oavsett moralitet tycker är fel korrekt beslutat i FN att följa i lugna områden. Blir du nervös donera några hundra miljoner till för att utrota malaria och boka in möten med dom syriska representanterna i FN rörande människorättsfrågorna varande vad de sedan länge är mycket mer än genomsnitt är engagerade i. Fryst i väntan på att FN ska omvärdera befintliga beslut kanske efter nästa gasattack - i all verklighet lämna problem exponentiellt expanderande till att bränna upp allt närmare.


Mod är styrka i den franska stereotypen och vad när de accepterar den och tar det till att göra i verklighet nu för dem som för alla skapar värde. Om man inte fallerar men i ingen utrikespolitisk fråga är det risk ens på bordet.


Korrekt symboliserande Frankrikes myndigheter såväl som att styrka är ett karaktärsdrag och en moraliskt dimension praktiskt annat än när du tvingas ej vad som avgörs av ytlig styrka.

Mysteriet MediaWiki och den smyg-förstärkta prestandan

Följande upp kring den förbättrade prestanda MediaWiki - trots med den installationen adderande diverse databaser körande och Apache - kan jag lite överraskande konstatera att innan jag lagt last på den introduceras inte den förbättrade prestandan (men kvarstår efter det).


En krash för ett tag sedan noterade det. En krash igår genererande nytt större P ( A | B ) data (gående från cirka 370 MB till ungefär 1.9 G och hoppas jag hållande jämförbar kvalitet) överskattande vad jag kunde ha i minnet för samförekomst-vektorer prövade jag att döda ner Apache m.m. (men ej Mysqp, Postgress och en till tror jag). Vilket ej särskilt påverkade prestandan positivt.


Värdet genererande data som beräknas i minne från data i filer skrivande till filer är ganska märkbart genomgående. Konfigurationen i sig vad det är intresserar mig verkligen även om jag knappast lär för djupa mig i det så länge jag har MediaWiki-installerad på datorn.


Jag antar att alla brutala små och stora fil- och databas-accesser kring konfigurationshantering av uppslagssidorna givit upphov till en del optimeringar implicit av miljön runt om i datorn.


Första gången någonsin vad jag minns att ha en massa feta servrar av olika slag förbättrar prestandan. Får mig att tänka Knoppix (även om jag i alla fall tagit bort delar av miljön runt fönster-hanteringen för något snabbare och smalare) och kanska fördjupa mig lite på nivån köpande en referensbok om Linux på server.


Något jag märkt kanske besläktat är att när jag skriver till filer tas det ner till disk mer sällan och ev. mer i taget. Jag är inte säker på att det "kom" med MediaWiki. Eventuellt tidigare med något jag gjorde i samband med en större generering av similarity-data förra året. Men det är också ungefär vad min Linux- och OS-kunskap kan föreslå också om jag är väldigt säker att ett modernt stort OS kommer med ett ganska stort antal faktorer som kanske påverkar ev. också utan att direkt ha med filaccess att göra.


Om något är jag också fascinerad hur väl MediaWiki fungerar utan små-problem. Nivån på installationsanvisningarna i språk, format, typ av filer länkade, indikationer kompilering m.m. brukar annars vara en 110% säker indikation om massor av små-problem relaterat min dator ej exakt-lika någon annans dator. Startar och går utan ett problem.


Kanske är det format av det dagliga brukskravet för Wikipedia relativt tillgång budget fodrande effektiv och problemfria lösningar.

NoSQL och Sun's och övriga hårdvaru-inriktades problem att orka med dom teoretiska utmaningarna vi alla behövt sedan år

Kanske är NoSQL (Oracle) delvis en kontroll fråga. SQL är ju ett tillämpat språk och tror jag säkert med säkerhet bäst lärs ut i alla grundläggande utbildningar medan en datainriktning. Men jag tror andelen arbetande där med utbildningar med ett traditionellt större tillämpade smalare solution-inriktade språk minskat. Datavetare antar jag normalt lär sig grunderna i SQL medan inriktningen data teknisk fysik har större fokus på numeriska metoder.


För Oracle's artikel lyfter de förvisso fram en bra lösning men ändå tror jag ofta en lösning för att hantera plattformarnas begränsningar:


  • Hash-tabellen om logiken är i hög utsträckning anpassad är excellent om det är givet att vår plattform orkar mängden data.
  • Ingen datastruktur - när hänsyn till minneskostnad i mängd eller accesstid finns - är snabbare med en god hashfunktion.
  • Jag är en stor vän av hashtabeller. Om möjligt skulle jag gärna lägga allt i dem.

Abstraktionen Berkeley DB gör är dock en hash-tabell endast i mening av hur vi räknar vår index-nyckel till en lokalsiering i datamedia. Jag är mindre vän av dom än hash-tabeller som i verklig mening kan ha hela tabellen i snabbt-minne redo.


Berkeley DB är den bästa lösning praktiskt enkel jag hittat för när minnet vs mängden inte orkar mer utan att behöva själv göra anpassade in och ut ur minnet (vilket vanligen i min erfarenhet endast lönar sig mer för statiska one-time genereringar mer eller mindre gigantiska medan det i konkurrerad miljö i alla fall för resurserna jag som person representerar relativt tid för lösningen är gigantiskt bättre med en färdig lösning).


Poängen jag vill göra illustreras dock av att när jag sista gången handlade dator ej bärbar hade jag räknat med att hårdvaru-access-indexering av minne skulle ha utvecklats mycket mer än vad tillgängligt i standard-plattformar.


Man har förvisso abstraherat en massa lösningar ovanpå på mer hårdvara - och tycks det ovanpå Ubuntu och tror jag säkert Linux allmänt med gigantiska förluster avseende tillgång multipla-cpu:er och minne för processerna där de gärna sitter och gör ingenting på utan särskilda åtgärder till och med mer än 20 - 60% - medan mängden minne jag eller en tolk som Perl direkt kan indexera ex. för hashtabeller egentligen inte gått särskilt vidare.
<7p>

Vad jag egentligen mer hade räknat med att kunnat köpa plattform till vettigt pris för att göra var att sätta kanske 400 GB filstruktur direkt i snabbt accessbart minne (inget krav på senaste minnesgenerationen: normal ram-prestanda senaste åtta åren hade varit excellen) för data där det ej är ett problem att hantera förändring. Och sedan indexera det som hash-tabell.


Vi kan se problemet avsaknaden av möjlighet ger mer än själva bristen på de konceptuellt eleganta abstraktioner som blir allt mer av verklighet för att lösa ungefär det här problemet på sätt som försämrar prestandan magnituder mer per datamängd-enhet: ex. klustra över nätverk oftare nu, eller innan klustra med sämre kommunikationshastighet för synkning m.m. mellan plattformen, eller innan mellan stoppa-in-ett-stycka-hårdvara kallat "grid" (eller vad nu buzz-wordet för hela den koncept-gruppen över-expensive lösning som var populärt ett tag bl.a. med lösningar från Sun om än säkert inte direkt opraktiska om du är en riktigt fet aktör vars hårdvaru-budget inte ifrågasätts och inte har lust att beställa en ordentligt snabbare lösning via jobbigare konfiiguration antingen mer hårvara-nära eller mer av massor av vekare enheter - jfr ready-to-run super computers i den här gruppen vs dom som toppat sista åren inte sämre än topp 1000 kanske där en hel del riktigt billigt finns - och också om jag här kanske låter kritiskt: är inte budget scarce väljer jad tveklöst ready-to-run - timmar kostar också).


Poängens poäng är att jag upplever att hårdvaru-utvecklingen har för mig icke-optimala preferenser gående åt fel hål. Kan jag indexera riktigt ordentligt med RAM i en PC försvinner en fet mängd tillämpningar som idag kanske rent av når upp till att kräva topp 1000 superdatorer. Med det blir mycket riktigt snabbt.


Jämför med att sitta att köra in data i en databas via ett konfigurationssystem (ex. MediaWiki) där konkurrenta lösningar m.m. krävs. Där går det ner till filaccess varje gång och med åtminstone tidskorta låsningar. Vad som kan ta en timme att med tidsdyr logik att generera handla om dagar att köra. Antag på det att vi inte ens har diskarna med snabb-access utan med en några gånger (i bästa fall) långsammare kanal. Och sätt på det ett kluster av lagringsenheter med processer för at förstå logik-orders på kanske några tusen enheter i plug-in-more-hardware as needed. Eller ännu värre över ett LAN.


Eller nu populärt access data över nätet istället för att ladda ner ofta inte mer än några hundra MB datafiler (och från min praktiska erfarenhet verksamhetskritiska för alla antaganden runt det: uppdelad i behandiga delar på maximalt en 400 - 500 MB) och sällan mer än en 10 - 30 Gig att köra in i säg 500 MB ram-disk med vad du ofast behöver.


Jag är inte så säker på att det just är affärskoncept som drivit utvecklingen så här. Oavsett hur mer lönsamt det är med all surplus-hårdvara. Snarare tror jag delvis i alla fall dom abstrakta koncepten känns väldigt eleganta och naturliga - tyngre i mening och lösnings-djup än i verkligheten - medan detaljer utvecklande vidare standard-komponenter att beställa från valfritt legot-tilverkare är jobbigt, svårt och kanske inte vad dom från förr välkända varumärkena här längre klarar att konkurrera om den kompetenshöjd och innovationsförmåga per individ som egentligen krävs för att ta något som inte tycks gå längre vidare.


Datarkitektur i hårdvara är väl kanske inte längre riktigt vad som attraherar samma antal personer med nivå av att skapa verkligt värde när det är nytt. Mer skruva runt med vad man har och lägga till lite lan-kablar mellan olika datorer istället för att ge möjlighet att adressera mer minne.


Och om jag nu har fel tvivlar jag verkligen på någon kommentar eller ilsket e-post runt det med mindre än att verifierbara instruktioner om hur jag modifierar min linux-kernel för att adressera gigantiskt mer minne tillsammans med instruktioner om var jag får tag i "ram-minneskort" att stoppa in i den i lämplig "port" (eller vad det kallas på insidan - förr fanns något som hetta isa tror jag). Tänk evidensnivå adressera 500 GB ungefär eller gärna mer.


Sun's varumärke är en annan sak. Där det etablerades under år om än föga om alls annat än tappat bit-för-bit sista åren dröjer det väldigt länge innan det inte värt en bra köpe-skilling för hela företaget oavsett om gående mycket dåligt. Bra koncept-ord från början och ytterst under många år etablera redan under grundutbildning såväl som tidigare industrikoncept inom data mången idag ser bakåt till som en lite mytisk-idé om verkligt dataarbete med kvalitet, stort o.s.v.


Jämför lite med Dell's problem som knappast skulle existera med den här adresserings-begränsningen löst medan många dyrare riktade leverantörer av hårdvaruplattformar hade slutgiltigt gjort ett sista ordentligt tapp på så oerhört mycket.


Faktisk när jag tänker på det skule förövrigt vardagligt surfande också bli mycket snabbt åtminstone på Windows p.g.a. det sätt den hanterar minne vs disk. Mycket temporära-filer vs. underliga kontroller av dem via egna subsystem eller add-on-program som går snabbare eller ej är nödvändiga på ett ej för annat än utvalda nedladdningar persistent lagringsmedium.