Datan hyötykäytön uusi anatomia
IT-strategia

Miten datan hyödyntäminen muuttuu, kun sen lukija ei ole enää pelkästään ihminen? Ja mikä on ihmisen rooli, kun kone ei enää vain analysoi vaan on myös aktiivinen toimija?

Datan hyödyntämisen peruskaava on ollut pitkään selkeä: liiketoiminta tuottaa dataa, data varastoidaan, analytiikka tuottaa vastauksia liiketoiminnan kysymyksiin ja liiketoiminta hyötyy. Perusrakenne ei ole kadonnut, mutta sen päälle on rakentunut kokonaan uusi kerros. Muutamia vuosia sitten kirjoitin datan hyötykäytön anatomiasta. Tuolloin kuva oli selkeämpi. Nyt generatiivinen tekoäly on muuttanut pelikenttää tavalla, joka ansaitsee uuden katsauksen. 

Datan olemus ja varastointi 

Data on yksinkertaisimmillaan tiedon yksikkö, joka saa arvonsa vasta kontekstin ja yhdistelyn kautta. Siinä, mitä datalla voidaan tehdä, on kuitenkin tapahtunut merkittävä muutos. Aiemmin jäsentämätön data, kuten lokirivit, ohjelmistojen koodimassat, dokumentit, sähköpostit, sopimukset ja Slack-keskustelut, vaati aina raskaita esikäsittelyvaiheita ennen kuin siitä saatiin mitään irti. Nyt kielimallit pystyvät suoremmin lukemaan, tulkitsemaan ja tiivistämään tätä dataa. 

Strukturoitu data, kuten myyntiluvut, tilaukset ja asiakastiedot, elää yhä tietokannoissa ja tietovarastoissa. Datan ulottuvuudet ohjaavat yhä tallennustapoja ja työkaluvalintoja. Muutos on siinä, miten data tuodaan tekoälyn ulottuville. Yrityksen dokumentit ja ohjeet voidaan indeksoida niin, että kielimalli hakee niistä kontekstia vastauksiaan varten. Kielimallien kasvaneet konteksti-ikkunat, eli se kuinka paljon tietoa malli pystyy käsittelemään kerralla, mahdollistavat suurtenkin aineistojen syöttämisen suoraan mallille, joskin pelkkä kontekstin koko ei takaa, että malli hyödyntää kaikkea sille syötettyä tietoa hyvin. Tekoäly voi myös käyttää työkaluja ja rajapintoja, joiden kautta se hakee ja päivittää dataa reaaliaikaisesti suoraan lähdejärjestelmistä. 

Aiempaa suurempi osa datasta, jota yritys tuottaa ja kerää, on nyt tavalla tai toisella hyödynnettävissä. 

Mitä tekoäly tekee datalla 

Datan päälle voidaan rakentaa keskusteleva kerros, jossa käyttäjä kysyy luonnollisella kielellä ja saa vastauksen, joka yhdistää tietoa useista lähteistä. Dashboardeja, raportteja ja ennustavia malleja tarvitaan edelleen. Tapa, jolla ihmiset pääsevät näiden tuloksiin, on kuitenkin muuttumassa: liiketoiminnan ihminen voi kysyä ”Miten viime kuukauden myynti vertautuu edelliseen vuoteen?” ja saada vastauksen ilman, että hänen tarvitsee osata kirjoittaa kyselyitä tai navigoida BI-työkalussa. 

Perinteisen analytiikan lisäksi generatiivinen tekoäly tuo kokonaan uudenlaisia kyvykkyyksiä. Se voi luonnostella asiakasviestejä ja sopimustekstejä yrityksen datan pohjalta, tiivistää ja vertailla dokumentteja, generoida tuotekuvauksia tai luokitella tukipyyntöjä automaattisesti. Tekoälyn kyvykkyys ei kuitenkaan rajoitu datan analysointiin tai sisällöntuotantoon. Kielimalli voi generoida koodia, automatisoida prosesseja ja ohjata työnkulkuja. Se voi toimia rajapintana ihmisen ja hyvin monenlaisten järjestelmien välillä. 

Tässä piilee olennainen muutos. Tekoäly ei vain analysoi dataa vaan tuottaa sen pohjalta jotain uutta ja toimii sen perusteella. Alkuperäisessä kirjoituksessani datan hyödyntämisen lopputuote oli aina tieto, jonka pohjalta ihminen teki päätöksen. Nyt lopputuote voi olla toimenpide, tai kokonainen prosessi, jossa tekoäly yhdistää tietoa, tuottaa sisältöä ja toteuttaa vaiheita itsenäisesti. 

Agentit: datasta toimintaan 

Tämän kehityksen pisimmälle vievät AI-agentit. Ilman työkaluja kielimallin toiminta rajoittuu siihen mitä se voi tuottaa yhdellä vastauksella. AI-agentit ovat kielimalleja, joilla on käytössään työkaluja: ne voivat hakea dataa, kutsua rajapintoja, kirjoittaa ja ajaa koodia, muokata tiedostoja. Oleellista on, että agentti toimii silmukassa: se suunnittelee, toteuttaa, arvioi tuloksen ja jatkaa kunnes tehtävä on valmis. 

Agenttien todellinen voima tulee esiin, kun ne toimivat yhdessä. Monimutkainen tehtävä voidaan jakaa erikoistuneille agenteille, joista kukin hallitsee oman osa-alueensa: yksi agentti seuraa ja tulkitsee dataa, toinen osaa kirjoittaa ja muotoilla raportteja, kolmas tuntee yrityksen järjestelmät ja osaa käynnistää toimenpiteitä niissä. Orkestroiva agentti koordinoi kokonaisuutta, jakaa tehtäviä ja kokoaa tulokset yhteen. 

Käytännössä tämä voi näyttää parhaimmillaan esimerkiksi siltä, että data-agentti havaitsee poikkeaman toimitusajoissa, analyysiagentti jäljittää sen juurisyyn, raportointiagentti laatii tiivistelmän operatiiviselle tiimille ja toimenpideagentti ehdottaa korjaavaa reititystä. Ihminen näkee valmiin kokonaisuuden ja päättää, toteutetaanko ehdotus. 

Haasteita: vanhat ongelmat, uudet ulottuvuudet 

Alkuperäisen kirjoituksen haasteet ovat saaneet uusia ulottuvuuksia, ja rinnalle on tullut kokonaan uusia. Monet näistä haasteista myös kytkeytyvät toisiinsa tavalla, joka tekee kokonaisuuden hallinnasta vaativampaa kuin yksittäisten ongelmien ratkaisemisesta. 

Datan siiloutuminen on yhä todellinen ongelma. Kielimallit voivat toimia eräänlaisena yhdistävänä kyselykerroksena siilojen yli, mutta tämä ei poista tarvetta datan hallinnalle ja integraatiolle. Malli ei pysty käyttämään dataa, johon se ei pääse käsiksi, ja rajapintojen merkitys korostuu. 

Datan laatu ei ole uusi haaste, mutta sen merkitys korostuu. Kielimalli voi tuottaa vakuuttavan vastauksen heikkolaatuisestakin datasta, jolloin lopputuloksen ongelma on vaikeampi havaita. Laadukas lähdedata on edelleen kaiken perusta. 

Luotettavuus on ehkä keskeisin haaste. Kielimallit voivat tuottaa vakuuttavia mutta virheellisiä vastauksia. Tämä tekee ihmisen arvioinnista entistä kriittisempää. Tässä tuleekin vastaan automaation paradoksi: mitä enemmän automaatiotasoa nostetaan, sitä enemmän ihmisen merkitys prosessissa kasvaa. Mutta samalla ihmisen kyky täyttää tämä rooli heikkenee, kun rutiinityö ei enää pidä osaamista yllä. 1

Ja kun luotettavuus on epävarmaa, nousee esiin laadun mittaamisen ongelma. Perinteisessä analytiikassa mittaaminen on suoraviivaisempaa: luvut joko täsmäävät tai eivät, ja ennustemallin tarkkuudelle on vakiintuneet mittarit. Mutta miten mitataan, onko mallin tuottama asiakasviesti riittävän hyvä? Tai onko tiivistelmä kattava? Arviointi vaatii usein ihmisen arviointia, ja systemaattisen palautesilmukan rakentaminen on työtä, joka helposti jää tekemättä. 

Kustannukset ja suorituskyky ovat käytännön realiteetti, joka yllättää monet. Kielimallien ajaminen tuotannossa maksaa, ja kustannukset skaalautuvat käytön mukana. Viive voi olla liian suuri reaaliaikaisiin käyttötapauksiin. Näitä rajoitteita voidaan hallita arkkitehtuurivalinnoilla, esimerkiksi valitsemalla kevyempi malli yksinkertaisiin tehtäviin, mutta ne on otettava huomioon ratkaisuja rakentaessa. 

Näiden käytännön haasteiden taustalla vaikuttaa osaamiskuilu, joka on monelle organisaatiolle tällä hetkellä suurin pullonkaula. Kuka rakentaa ja ylläpitää tekoälyratkaisuja? Tarvitaan ihmisiä, jotka ymmärtävät sekä liiketoimintaa että tekoälyn mahdollisuuksia ja rajoitteita. Osaaminen ei synny itsestään, ja sen puuttuminen voi estää muuten lupaavien hankkeiden etenemisen. Ilman osaajia luotettavuus- ja laatuongelmat jäävät ratkaisematta, ja kustannukset karkaavat. 

Datan omistajuus ja hallinta saa uusia sävyjä. Kenen dataa kielimallille syötetään? Miten estetään arkaluontoisen tiedon vuotaminen kolmannen osapuolen malleihin? Näihin kysymyksiin yrityksen on otettava kantaa ennen kuin tekoäly otetaan laajamittaisesti käyttöön. 

Ihmisen rooli siirtyy osallistumisesta ohjaamiseen 

Alkuperäisen kirjoituksen tärkein viesti oli, että liiketoiminta-alueiden ymmärrys löytyy yrityksen ihmisistä, ja siksi heidän pitäisi olla mukana datan hyödyntämisessä. Tämä pitää edelleen täysin paikkansa, mutta rooli on muuttumassa. 

Aiemmin ihmisten osallistuminen tarkoitti sitä, että liiketoiminnan asiantuntijat olivat mukana määrittelemässä mittareita, tulkitsemassa dashboardeja ja ohjaamassa analysointia. Nyt rooli laajenee: ihmisten tehtävä on ohjata tekoälyä, arvioida sen tuotoksia kriittisesti ja suunnitella palautesilmukoita, joilla järjestelmän laatua parannetaan. 

Tarvittava osaaminen muuttuu. ”Osaan lukea dashboardia” ei enää riitä. Tarvitaan kykyä muotoilla hyviä kysymyksiä tekoälylle, arvioida vastausten luotettavuutta, ymmärtää milloin malli toimii hyvin ja milloin se ei toimi, sekä suunnitella prosesseja, joissa ihminen ja tekoäly täydentävät toisiaan. 

Tämä ei ole IT-projekti 

Generatiivisen tekoälyn hyödyntäminen täysimittaisesti ei ole yksittäinen hanke, jonka voi delegoida hoidettavaksi jonkun muun toimesta. Se muuttaa tapaa, jolla organisaatio työskentelee datan kanssa, tekee päätöksiä ja palvelee asiakkaitaan. Tämän mittakaavan muutos vaatii ylimmän johdon sitoutumista: selkeää visiota siitä, mihin tekoälyä käytetään, resurssien kohdentamista ja valmiutta muuttaa toimintatapoja. 

Datan ja liiketoiminnan välissä on nyt uusi, voimakas kerros. Sen ohjaaminen vaatii ihmisiä, jotka ymmärtävät sekä liiketoimintaa että tekoälyä. Tämä osaaminen ratkaisee, ketkä datasta todella saavat kilpailuetua. 

  1. Lisanne Bainbridge, ”Ironies of Automation,” Automatica, 1983. ↩︎

Vesa Saarinen

Ratkaisuarkkitehti

Vesa on koneoppimisesta ja analytiikasta kiinnostunut Reflectorin ratkaisuarkkitehti.

Ota yhteys asiantuntijaan

Mikään ei ole niin kallista kuin virhe, joka pääsee tuotantoon

Tarkista yrityksesi nykytila. Varaa nyt QA-osaajat alkuvuodelle.

Reflector on ICT-talo, jonka ykköstehtävä on auttaa asiakkaitamme liiketoiminnan isoissa ja pienissä muutoshankkeissa. Ketterästi ja riippumattomasti.

Jaa artikkeli

Ota yhteyttä

Lähetä viesti

Jätä soittopyyntö

Olemme yhteydessä sinuun mahdollisimman pian.

Get in touch!