AI and Data Consume an Enormous Amount of Energy

January 3, 2024 by
AI and Data Consume an Enormous Amount of Energy
Teräs Olli

Tiedonhallintapäällikkö Jyrki Tunnela Fintraffic Raide Oy:stä oli Teknologia 23 -tapahtuman TIVIA Stagen ensimmäisen päivän eli tiistain 7.11.2023 11. puhuja.

Tunnela kertoi esityksensä aluksi johdattavansa kuuntelijat automaattisesta tietojenkäsittelystä (ATK) nykypäivään. Hän aloitti kouluajoistaan 1980-luvulta, jolloin ATK tuli oppiaineeksi. Neljä ensimmäistä vuotta hän käytti tietokonetta vain koulussa, sillä juuri kellään ei ollut varaa hankkia niitä kotiin. Työelämässä tulivat vastaan sen sijaan muun muassa minitietokoneet. Teknillinen korkeakoulu aloitti tietotekniikan koulutusohjelman 1985, johon Tunnelakin pääsi mukaan. Siihen aikaan puhuttiin sekä tekoälystä että ohjelmistokehittimistä, joista varsinkin viimeisen kerrottiin korvaavan ohjelmoijien tarpeen. Siihen uskovat olivat väärässä.

1990-luku oli erilainen. Tietokoneen käyttöjärjestelmiä oli tarjolla paljon enemmän kuin nyt, mikä aiheutti paljon vaikeuksia ja suurta sekaannusta. Samoja ongelmia yritettiin eri suunnilla ratkaista erikseen. Sama koski esimerkiksi tietokantoja; niitä oli suuri määrä, kunnes pudotuspeli harvensi joukon. Arkkitehtuuri oli kuitenkin 1990-luvulla voimissaan. Puhuttiin OSI-mallista ja arkkitehtuurilayereistä, joiden avulla asiaa oli mahdollista saada haltuun. Tunnela itse teki 1990-luvulla ensimmäiset rinnakkaisohjelmointiharjoitukset. Rinnakkaislaskennan juju oli siinä, että sillä konstilla sama juttu saadaan tehdyksi nopeammin. Nykyään ominaisuus on kaikissa tietokoneissa – tuolloin sitä ei vielä ollut.

1990-luvulla Unix dominoi, PC teki vallankumouksen ja Internet aukesi. Internet mahdollisti ideoiden jakamisen läpi maailman. Tunnelan mukaan keskeistä 1990-luvussa oli tehokkuutta ja uudelleenkäytettävyyttä suosivan työskentelytavan etsiminen. Tunnela meni töihin Teklalle, missä oli tehty kaunis arkkitehtoninen ratkaisu, jossa taustalla oli viitisen tietokantaratkaisua, jonka päälle oli tehty määrittelylayer, joka mahdollisti kaikkien tietokantojen käytön. Päästiin kiinni tietoon erilaisista ympäristöistä yhden layerin kautta. Tehtiin myös käyttöliittymän yhtenäistäminen, jolloin pystyttiin tekemään sovellus sekä UNIX- että Windows-käyttäjille, joita tässä vaiheessa oli vain vähän.

2000-luvulla painopiste siirtyi standardoinnin suuntaan. Haluttiin tehdä standardoituja ja sertifioituja tuotekehitysmenetelmiä. ISO-laatustandardit olivat kovassa huudossa. Jatkuvan parantamisen idea oli voimissaan silloin ja edelleen. ISO-sertifikaatti antaa raamit sille, mitä tietoa pitää kerätä, kenen pitää sitä katsoa ja missä sekä miten seurataan toimenpiteitä. Puhutaan siis tiedosta ja sen johtamisesta. 2000-luvulla fokusoitiin myös vaatimustenhallintaan. Järjestettiin seminaareja, joissa määriteltiin, mitä eri alueita vaatimusmäärittelyyn pitää sisällyttää. Dataa alkoi kertyä jokaiseen yritykseen ja ajan henkeen kuului miettiä, mitä kaikkea dataa voi kerätä – kukaan ei ollut vielä herännyt ajatukseen, mitä saa kerätä. Datan dokumentointi alkoi saada merkitystä. Lisäksi mietittiin, mitä kaikkea voi ja kannattaa mitata. Tiedossa mittareita on enemmän kuin ohjelmistokehityksessä, jossa niitä on jo paljon.

2010-luvulla alettiin ratkaisemaan ongelmaa, joka liittyi tiedon ja järjestelmien suureen määrään. Toimittajat kauppasivat omia menetelmiään ja järjestelmiään. Kaikki järjestelmät olivat dedikoituja, ja tietoa syntyi useissa lähteissä ilman, että saarekkeet tiesivät toisistaan. Tähän tilanteeseen syntyi Master Data -ideologia yhdistämään tietoa ja integroimaan järjestelmiä yhteen. Tunnelan mukaan 2010-luvun Master Data -hankkeissa oli sekä epäonnistumisia että onnistumisia. Joissain paikoissa Master Datasta tuli kirosana, vaikka se onkin lunastanut paikkansa datadomainin keskeisenä tekijänä. 2010-luvulla lähdettiin kiipeämään kohti pilveä ja tiedot lähtivät valumaan pilveen. Tunnelan mukaan pilvisiirtymän avain oli tieto siitä, mitä tietoa pilveen siirretään. Tiedon säilyttäminen ja käyttäminen pilvessä oli halvempaa ja nopeampaa, ja jopa turvallisempaa. Pian siirryttiin viemään pilveen pelkkiä palveluja.

2010-luvun oma erikoisuus oli GDPR, joka muutti tietoturvaan ja tietosuojaan liittyvää ajattelua ja nosti parrasvaloihin tiedonhallinnan: miten tietoa pitäisi johtaa, miten sopia asioista, miten dokumentoida designia ja pilvivarastoja. 2010-luvusta tuli myös agile-ajattelun kulta-aika. Vesiputousmalli haluttiin haudata. Nyt on päästy hybridimalli, jossa road map tehdään vesiputouksena ja toteutukset agilena.

Nyt tiedonhallinta on Tunnelan mukaan paremmassa huudossa kuin koskaan. 2020-luvulla regulaatioiden määrä räjähtänyt käsiin, esimerkkinä EU:n Big Five. Regulaatiot pakottavat keskittymään, mitä kaikkea säädöksiä pitää noudattaa, miten noudattamista seurataan ja raportoidaan, mitä tietoa kerätään ja mitä täytyy kerätä. Tietoa on paljon ja sen hallinta on olennainen kysymys.

Pelastaako ChatGPT maailman? Tunnelan mukaan ChatGPT on tilastollinen malli, joka ehkä toteuttaa sen, mitä pyysit. Hyvän ja huonon ohjelmakoodin tehokkuus- ja luotettavuusero on kymmenkertainen. Tunnela uskoo, että ihmisälyä vielä tarvitaan pitkään varmistamaan ratkaisu ja tekemään innovatiiviset ratkaisut ohjelmoinnin maailmassa. 2020-luvulla pyritään kuitenkin keräämään tietovarantojen metatietoja automaattisesti tai tehdään järjestelmiä, joilla tuetaan metadatan dokumentointia. Tiedon metadatan arvoa aletaan ymmärtää. Tiedon arvo syntyy silloin, kun pääset käyttämään. ”Tieto on kaksi kertaa arvokkaampaa, kun pystyt luottamaan siihen, ja neljä kertaa arvokkaampaa, kun ymmärrät sen kontekstin kunnolla. Luottamus tietoon riippuu siitä, miten paljon voit tietää tiedon ympäristöstä, tai miten olet tottunut siihen, että tämä tieto on hyvää tietoa ja tästä lähteestä olen aina saanut hyvää ja toimivaa tietoa”, Tunnela totesi. ”Johtamista tiedolla, ei mutulla”, on Tunnelan mukaan 2020-luvun tärkein pointti.

TIVIAn jäsenenä olet osaavassa seurassa

Henkilöjäsenenä pidät oman ammattitaitosi ajan tasalla, luot kontakteja ja kehität alaa sekä hyödyt eduista.

Yhteinen nimittäjä 1980-luvulta tähän päivään on Tunnelan mukaan se, että tähän valtakuntaan sopii kerrallaan yksi asia kunnolla keskusteltavaksi: 1980-luvulla automaattinen tietojenkäsittely, 1990-luvulla Internet, 2010-luvulla pilvisiirtymä ja 2020-luvulla ChatGPT. Yksi asia kerrallaan, eikä yksikään ollut hopealuoti. Perspektiivit vaihtuvat yrityskohtaisesti, mutta jotkut ovat yhteisiä: regulaatio pakottaa tarkastelemaan tietoturvaa ja -suojaa, bisnes pyytää katsomaan arvoa, kaikki haluaa ymmärtää tiedon jakamisen, eikä kukaan ei halua, että tiedot vuotavat. Kaikki haluavat laadukasta tietoa, joka on saatavilla kaikille, jotka sitä tarvitsevat. Tiedon omistajuus on kuuma peruna, mutta omistaminen ei saisi päätyä omimiseen saakka. Tiedon elinkaaren pitäisi olla koko elinkaari, eikä vain osa siitä. ”Jos meillä on vain iso kasa tietoa jossa, kyseessähän on silloin pelkkä kustannus. Jos meillä on tietoa, jota käytetään koko ajan, se voi olla hyödyke. Jos meillä on tietoa, jota käytetään ja poistetaan silloin kun pitää, meillä on hallittua tietoa”, Tunnela totesi.

Tunnelan viimeinen kiteytys: jos tietoa johdetaan laadukkaasti, siitä saadaan 300 % enemmän hyötyä.

Lopuksi Tunnela toivotti tiedollista syksyä sillä kulmalla, mikä teillä onkaan tänään tärkein.

Teksti: Reino Myllymäki
Kuva: TIVIA ry 






Jaa tämä kirjoitus
Arkistoi