Luin nyt ketjun läpi ja myös itse artikkelin, jonka tarkempaa sisältöä en ollut aiemmin nähnyt. Kiitokset miggelille!
Minua alkoi naurattaa jo "neuvotteluhuone Junttilan" kohdalla. Enkä joutunut pettymään.
Voi hyvänen aika. Jutusta päätellen uusimmat toimittajat saamat asiakirjat ovat jostain vuodelta 2008.
Kuka tahansa matlu-fys. pohjainen datatieteilijä olisi voinut kertoa, mitä kaikkea kuuluu nykyiseen elektronisen ja datatiedustelun state-of-the-art'iin, jota artikkeleissa kuvailtiin. Siltä osin juttu oli jopa ylimalkainen.
Vertailun vuoksi: Suosituin Big Datan (kuten maailmanlaajuisen verkkoliikenteen) analysoinnissa käytettävä kaupallinen ja vapaasti saatavilla oleva työkalu Hadoop on ollut käytössä noin viitisen vuotta. Ja se on aika kökkö, alkaa käydä jo vanhaksi. Ehkä voitte kuvitella, mitä on käytössä esim. suurvaltojen tiedustelupuolella, jossa käytössä on vielä Facebookiakin (yms.) paremmat, käytännössä rajattomat resurssit?
Vertailun vuoksi 2: Kvanttitietokoneprojekteja nousee kuin sieniä sateella eri yliopistoissa. Se tarkoittaa, että tarvittava puolijohdeteknologia on halventunut sen verran, että kvanttitietokoneprojektin tuottamiseen voi keskivertokin yliopisto jo saada varoja yleishyödyllisistä apurahoista (kvanttitietokoneen odotetaan pystyvän murtamaan minkä tahansa käytössä olevan tavallisen tietokoneen salauksen, ja toisaalta tuottamaan murtamattoman salausmenetelmän). Voinette kuvitella, mikä on siis tilanne suurvaltojen puolustusteknologiapuolella, jossa käytössä on käytännössä rajattomat resurssit.
Enempää en sano.
EDIT. Lisään kumminkin, että siinä vaiheessa kun Hadoop vapautettiin 2011, se oli yksityisellä puolella varmaankin ns. työnsä tehnyt, eli ei tuonut enää kilpailuetua. Ja se vain alleviivaa sitä, mikä on tilanne sotilaspuolella, jossa on käytössä jne...