Ej bokförda militära-problem: Bildanalys kan ibland lösa problemet med urgamla legacy-system

2013-11-18

Jag är inte säker på att denna metod är funktionell på dom här systemen (flera tusen business systems) som använda (en hel processas kanske mer automatiserat utan att visualisera sig):



Men också för legacy system direkt svårt p.g.a. gammal hårdvara, programvara hårdkodad eller med okänt ursprung o.s.v. kanske sittande i en dyr stridstraktor eller någon föregångare till Gigantiska stridsfartyget Gerald R. Ford redan föråldrat trots nybyggt: Saknar ångkraft har de ofta skärm.


Bildanalys rörande detektion av text och sffror på det bör i sig inte vara något problem. Och antagligen presenteras data på skärn för just dom och särskilt äldre system tämligen eller exakt alltid konstant rörande avstånd (förutom siffer och bokstävsvariationer) så att det är mycket enklare att få ut funktionellt data. Tillskillnad från mycket värre datorer och IT ObamaCare: IT- och datasystem är naturligt torterande med federala problem datorer tillochmed innan Obama steg in i Vitahuset PDF-dokument för journal-artiklar m.m. omvandlade från värst PS-filer innan (tror jag) eller som en hel del på Dtic.mil avfotograferade i gryniga kopiatorer (utmärkt specialarbete eller examensarbete för någon att göra en open source perl modul för).


Det kan rent av vara mycket enklare än att "quick-parsa" (en myckenhet memcopy, substr eller motsvarande beroende på språk) som ju typiskt närstan alltid ger bra data om man är van att göra sådant men regelmässigt alltid skjuter en andel fel av och till. Tråkigt nog som allmänt problem lär sådant här inte minska. Eleganta koncept som rekursiva-träd likt html och xml förvärrar saker och ting medan en hemsida egentligen lika gärna (tycker jag) kan skrivas som en CSV lista med kanske maximalt fyra fält.


Och ändå oavsett hur komplex, fylld med helt irrelevant html, xml, javascript, massa jox för reklam m.m. html-sidan är gäller att vill vi bara ha texten kan vi ju utnyttja black-box med webbläsare och bildanalysera skärm (även om jag absolut inte gör det: jag har kommit att se ett närmast religiös proces i att quick-parsa data från sajter eller dokument samlade från UN, Reuters, Xinhua m.m. En fin upplevelse där man får trevlig chans att upptäcka spännande små fakta om världen när fel-text kommer in eller skrivs ut i debug - Och samtidigt arbetsmoral- och impulskontroll-tränande - vad ungdomen borde göra i skolan för att träna sig till bättre människor kanske åt aktörer utanför som behöve få sådant gjort och jag är själv villig att skriva en affärs-tränande kravspecifikation på hur jag vill ha sådant gjort skolan kan använda för att organisera en skolklass till att parsa ut en bunt sajter eller dokumentsystem åt mig).


Det finns ju en ofta uttryckt dröm om enkelt api i ex. Perl för att bara få ut text. Det intresserar mig mer sällan. Ingen verkar nöjd med vad som finns och vad jag prövat oavsett html eller mer som xml används i ontologier, rds-junk eller en del sgml ej html är ofta åtminstone brutalt slött. Men där har vi samma koncept: Texten utan alla legacy-format kanske engång standardiserade eller praktiskt för webbsajter individuellt för varje när det är specifika datafält vi önskar (nätet ramlade ner en bit från html 1.0 i det här perspektivet även det är mycket begripligt och givetvis sammantaget bättre).


Och rent av att datasystem för att fotografera skärm inte behöver vara avancerat heller. Bara att potestera en sailor framför the nuclear supply- and waste management system för att fotografera av uppgifterna om mängden uran eller vad som nu används i dom här större båtarna och ubåtarna.


Bara att se upp för UUID omvandling mellan kamera, UCORE eller jämförbart, Drupals representation, och vad diverse dokument-program likt Word eller Adobe-använder. Om än ej enorm åtminstone en del möjliga indikationer man kan träffa på i en del sådant PDF-filer från Guardian (även om i alla fall för mig helt intet-sägande och antagligen men inte säkert ej bärande problem). Annars får man spårbarhet mindre anvädnbar för säkerhetslösningar, dokumenthantering och accounting och istället icke-definierade risker och sammanblandningar.


Annars var jag ganska imponerad av lösningarna. Andra metoder för att hantera sådant här i slutet av månden jag hört om inkluderar att samla små rester av månadens måltider att sätta på hudfett, åtta olika pennor, en liten hammare för att försiktigt slå på handen man skriver med och svarta sopsäckar att fästa på fönstren. Lösningarna här kändes mer rationella. Att förändra luftfuktighet är ett till ex. på irrationell helt onödig åtgärd ej helt okänd. Men så är en del mycket mer noggranna och exakta när det kommer till detaljer: tyskt exakt som jag brukar kalla det och då faller sig sådana här egentligen överdrivna metoder naturliga. Kvalitets-motivation inbyggd i personligheten...


Komplettering: Precis som hos svenska Polisen före - och av historik att bedömma fortsatt - senaste försöket att göra IT:


"'At last count, there were 167 manual workarounds' for the 40-year-old pay system used by DFAS and all the services except the Marines, he says. As a result, staff often must transcribe information from one system onto paper, carry it to another office, and hand it off to other workers who then manually enter it into other systems - a process called "finger-gapping" that Wallace faults as a further source of errors."

Från: How the Pentagon’s payroll quagmire traps America’s soldiers | Reuters

Och tråkigt nog också delade likhet med dom moraliskt-administrativa problem Sverige haft relaterade skadade i Afganistan såväl som dom afganska tolkarna (oavsett hur nu det senare problemet slutade).


Samtidigt som ett faktiskt bra befintligt system existerar jag rent av fick för mig Sverige är stor delägare i via medlemsskap i en internationell grupp eller organisation. Men jag är ju inte särskilt detalj kunnig kring arresterings-formalia m.m. Men mötet affärssystem, kontorsmiljö och mobila huvudsakligen automatiserade lösningar så nära liggande verkar ju intressant.