Miten tekoälyn pitäisi näkyä IT-budjetissa 2024?

Budjetointi kangistaa helposti IT:tä, sillä vuoden etukäteen kiinnitetty rahakehys vaikuttaa niin suuntaan kuin vauhtiinkin. Miten tähän sopii tekoäly, jonka parissa kaikki muuttuu niin nopeasti? Avaamme tässä kirjoituksessa Devisioonan tapaa ajatella tekoälyn rahankäyttöä.

Useimmat suomalaiset IT-yritykset arvioivat vuoden 2024 rahankäyttöä juuri nyt, syys-lokakuun taitteessa. Jos olisit viime vuonna ollut poikkeuksellisen ketterä ja naulannut IT-talouden peruslinjat kiinni vasta marraskuun puolivälissä, olisit silti jättänyt täysin huomiotta ChatGPT:n, joka julkaistiin pari viikkoa myöhemmin – ja on tässä kuluneessa vajaassa vuodessa radikaalisti vaikuttanut siihen, mitä niin sisäiset kuin ulkoiset käyttäjät odottavat yritys-IT:ltä.

Vuosibudjetointi ei ikinä voi olla kovin ketterää – ei ainakaan, jos rahankäytön kohteet kiinnitetään budjetin yhteydessä. Mutta koska budjetointikulttuurin muutosta ei ajeta Devisioonan blogista käsin, käytetään tämä hetki mieluummin sen reflektoimiseen, mikä voisi olla järkevä tapa ennustaa epävarmuutta seuraavalle kalenterivuodelle.

Henkilökohtaisen tekoälyavustuksen rooli

ChatGPT:tä ja sen vaikuttavuutta voi arvioida hyvin kriittisestikin, mutta joka tapauksessa vuosi 2023 on vakuuttanut monet tietotyöläiset siitä, että vieressä pörräävä henkilökohtainen tietotyön avustaja on hyvä juttu. Chat-muotoiselta botilta voi pyytää apua tekstinkäsittelyn lisäksi myös ideointiin, luokitteluun, ajatusten jäsentämiseen ja moneen tekniseen tehtävään – myös esimerkiksi ohjelmointiin.

Harvalla organisaatiolla on toistaiseksi ollut budjettia henkilökohtaisille tekoälyavustajille, mutta ehkä sellaiselle voisi alkaa olla paikkansa. Ongelmaa voi lähestyä ainakin kolmen eri tuotteen näkökulmasta:

Microsoftin Bing Chat for Enterprise on ilmainen, jos organisaation lisenssipakista löytyy valmiiksi vähintään Microsoft 365 E3 -taso. Toisaalta BCE on ”vain” tietoturvallinen Bing Chat – mitään yrityskohtaista räätälöintiä sillä ei voi tehdä. Käytännössä BCE:n nollabudjettiratkaisu ei riitä juuri muuhun kuin että voi todeta, että ”meidän organisaatiollamme on tekoäly käytössä”; perehtyneet yksilöt toki saavat silläkin tuloksia aikaan.

Toisaalta Microsoft 365 Copilot tuo GPT-4-pohjaisen keskustelun Office-integroituna ja organisaation dokumentteihin ym. sidottuna. Hinnaksi on luvattu 30 e/käyttäjä/kk, mutta joustava saatavuus varsinkin pienemmille organisaatioille antaa vielä odottaa itseään. Nyt puhutaan tuotteesta, joka saattaa hyvinkin vastata varsin isoon osaan organisaation interaktiivisista tekoälytarpeista – jos kaikki data on valmiiksi Microsoft-pilvessä, ja silloinkin ehkä vain optimistisimmissa skenaarioissa.

ChatGPT Enterprise lupaa OpenAI:n parhaat hedelmät heti ja nopeimmin. Hinnoittelua ei tosin ole julkaistu eikä saatavuuskaan ole mitenkään välitön. Voi kuitenkin arvailla, että Microsoft 365 Copilotin hintatason merkittävä ylittäminen tekisi myymisen vaikeaksi, ja toisaalta alle ChatGPT Plussan nykyisen 20 e/käyttäjä/kk -tason tuskin mennään. Periaatteessa tällä hinnalla pitäisi saada myös mahdollisuus yritystason integraatioihin Microsoftin Copilotien tyyliin, mutta ei toki suoraan esimerkiksi Office-sovelluksiin.

Samaan ratkaisuun voi päästä myös räätälöidyillä keskustelumoottoreilla – Microsoftin valmisratkaisuilla, Devisioonan DevGPT:llä tai muilla valmismalleilla – joko ostettuna tai itse rakennettuna. Näissä malleissa käyttöönotto sisältää jonkinlaisen investoinnin, mutta arkikäyttö on yleensä hyvin edullista.

Turvallisesti voinee ajatella, että ensi vuonna organisaation tekoälyn henkilökohtainen lisenssikustannus tulee olemaan korkeintaan luokkaa 30 e/käyttäjä/kk, ainakin jos organisaatio on valmiiksi mukana Microsoft 365 -ekosysteemissä E3-lisensseineen. Suurempi haaste on ehkä arvata, missä kohtaa vuotta 2024 lisenssit oikeasti ostetaan ja kuinka monelle. Varhaiset kokemukset osoittavat, että yritystekoälyn käyttöönotto ei onnistu ilman huomattavia organisointipanoksia, joten tammikuun alku ei välttämättä ole realistinen vaihtoehto useimmille yrityksille, vaikka kunnianhimoa olisi runsaastikin. Toisaalta: Jos budjettiin saa upotettua 30 e / käyttäjä / kk koko henkilökunnalle (onnea matkaan!), jää varmasti pelirahaa myös mukautustyöhön, sillä tämä kustannus tuskin toteutuu tammikuusta lukien.

Syvempi tekoälykäyttö vaatii kehitysprojekteja

Useimpien organisaatioiden esiin nousseet tekoälyn kehityskohteet jakautuvat alkuinnostuksen jälkeen kolmeen kategoriaan: omien käyttötapausten erityiseen huomiointiin, oman datan käyttöönottoon ja taustaprosessien AI-räätälöintiin. Jokainen näistä vaatii hieman omanlaistaan panostusta niin sisällöllisesti kuin taloudellisestikin.

Omien käyttötapausten huomiointi voi tarkoittaa esimerkiksi sitä, että tietyt tekoälyn käyttötarkoitukset nostetaan yleisestä chat-käyttöliittymästä liiketoimintasovellusten sisään. Viestintään käytetty työkalu voi tarjota automaattista tekstinmuodostusta, asiakastietonäkymä voi vetää yhteen edelliset asiakkaan lähettämät palautteet, tai mobiilisovellus voi muuntaa käyttäjän sanelemat tiiviit muistiinpanot jouhevaksi raportiksi. Kaikki nämä skenaariot voisi tehdä millä tahansa yllä mainituista chat-palveluistakin, mutta jalostusarvo paranee, kun tekoäly tuodaan lähelle varsinaista työtä.

Organisaation datan ottaminen mukaan chat-ympäristöön vaatii määrätietoista ponnistelua. Yksinkertaiset hakuindeksit ovat monien demojen ytimessä, mutta tätä yksinkertaista arkkitehtuuria on vaikea skaalata organisaation laajempaan käyttöön. Todelliseen tehokäyttöön tarvitaan useita tietolähteitä, joista luultavasti osa on dokumenttiluontoisia (intranetit, wikit, pdf-kokoelmat) ja osa taas eläviä (ERPit, CRM:t ja vastaavat). Näiden liittäminen vaatii integraatiotyötä ja myös tarkkaa käsitystä datan luonteesta: Mikä tieto on ensisijaista missäkin aiheessa, mihin kukakin pääsee ja miten tietolähteet päivitetään?

Taustaprosessien AI-räätälöinnissä tekoälyä viedään järjestelmän sisälle siten, että asioita tapahtuu käyttäjän näkymän ulkopuolella – siis autopilot, ei copilot. Tässä toimintatavassa vaikeinta ei ole teknologinen aikaansaaminen, vaan laadun hallinta ja jatkuva vaaliminen: kun data muuttuu ja tekoälymalli päivittyy, miten varmistua siitä, että näkymättömät prosessit tuottavat aina riittävän laadukasta tulosta?

Oikeastaan monet näistä kolmesta kohdasta voi ajatella myös osaksi riittävän laajasti integroituvien valmistuotteiden käyttöönottoa. Esimerkiksi Microsoft 365 Copilot jalostuu varmastikin lopulta yksinkertaiseksi, luottokortilla ostettavaksi assistentiksi – mutta sittenhän se vaatiikin ympäristöltään paljon. Tekoälyassistenttia kun houkuttaa myös väärinkäyttää. Ovathan Teams-käyttöoikeudet kunnossa, ettei ”Tiivistä edellisen johtoryhmän kokouksen sisältö”-pyyntöön vahingossa vastata varastotyöntekijän oikeuksilla?

Vaativat ratkaisut on syytä koeponnistaa

Varsinkin kielimalleihin pohjautuvien tekoälysovellusten keskeinen haaste on siinä, että tekoälyn – käytännössä mallin – toiminta on epädeterminististä: sama syöte voi kahdella eri kerralla tuottaa eri lopputuloksen. Lisäksi malleja usein käytetään hyvin vaihtelevilla tavoilla: Kielimalli saattaa kyetä vastaamaan yksinkertaiseen pyyntöön oikein joka kerta, kun taas käyttäjän monimutkaisempi tarve voi saada heikomman vastauksen.

Näistä syistä monien ratkaisujen toimivuutta voidaan arvioida ainoastaan kokeilujen ja pilottiprojektien kautta. Tekoälyprojekteja kannattaakin lähestyä analyyttisten kokeilujen kautta. Hyvän analyyttisen proof-of-conceptin tarkoituksena ei ole tehdä näyttävää käyttöliittymää tai päräyttävää demoa, vaan varmistaa, että tekoälytekninen osuus on ylipäätään luotettavasti tehtävissä. IT-teknisistä osista (datamallit, käyttöliittymät, integraatioputket jne.) on kyllä alalla tarpeeksi vakiintunutta osaamista, joten niillä fiilistelyyn ei tekoäly-PoCeissa kannata kuluttaa resursseja.

Hyvän tekoäly-PoCin jälkeen tiedetään, mitkä ongelmat tekoäly pystyy ratkaisemaan ja mitä se tarvitsee tuekseen. Jos pilotti paljastaa, että vanhan ERPin hakurajapintoja ei saada kunnioittamaan käyttöoikeusrajoituksia tai että vanhojen skannattujen sopimus-PDF:ien vastuunjakotaulukot eivät hahmotu kielimallille, nämä ovat tärkeitä löydöksiä: Ne kertovat, mihin tekoälyprojekti tulee pystymään tai mitä perinteisen IT:n tuki-investointeja se tulee tarvitsemaan onnistuakseen.

Kun tekoälyn keskeiset reunaehdot on testattu, kielimalleihin liittyvän epävarmuuden tulisi olla hallittavissa normaalein projektinhallinnan menetelmin. Ideaalitilanteessa loppu on ”vain IT-projekti”. Mutta miten tämä muunnetaan euroiksi?

Kohti tekoälyn budjetointia

Emme yritä väittää, että meillä Devisioonassa olisi vielä tilastollisesti kattavaa projektikokemusta, jonka pohjalta esittää luotettavia käsityksiä kielimallipohjaisten tekoälyhankkeiden koosta. Koska joudumme näitä kuitenkin itsekin koko ajan arvioimaan, yhtä hyvin voimme avata ajattelumme tähän julkiseen keskusteluun. Seuraavissa kappaleissa esitetään karkeita käsityksiä siitä, millaisia määriä konsultin henkilötyöpäiviä (htp) erilaiset hankkeet tarvitsevat. Monet hankkeet tarvitsevat lisäksi enemmän tai vähemmän sisäistä työtä, saatavilla olevan asiantuntijuuden määrän mukaan.

Tekoälyratkaisujen ideointiin kannattaa varata 2–3 htp per liiketoiminnan ongelma-alue (esim. myyntiprosessin tuki, asiakaspalvelun tehostaminen, viestinnän parantaminen). Tässä ajassa ehditään käymään kaikki osalliset läpi, kuulemaan heitä, hahmottamaan toivottu arvolupaus ja suunnittelemaan kokeiluille järkevä laajuus.

Tekoälyratkaisujen kokeilemiseen (proof-of-concept) kannattaa varata 5–10 htp per tekoälyn käyttökohde. Tässä työmäärässä ehditään perehtyä syötetietoon, luoda sopiva testiympäristö, tehdä tarvittavaa kehotesuunnittelua (prompt design) ja validoida joukko tuloksia. Jos kyseessä on useita tietolähteitä hyödyntävä palvelu, kannattaa lisätä muutama päivä per lisätietolähde. Jos kyseessä on loppuasiakkaille (varsinkin kuluttajille) suunnattu chat-palvelu, arvion voi helposti moninkertaistaa, sillä lopputuloksen laadullisen varmentamisen vaatimukset ovat tällöin selkeästi korkeammat.

Varsinaisen tekoälyn toteutushankkeen työmääräarviota on mahdotonta antaa geneerisesti, koska järjestelmät ovat niin erilaisia. Integraatioputkeen viety älykäs sisältöanalysaattori on varsin erilainen projekti kuin räätälöidyn verkkokaupan virittäminen interaktiiviseksi agentiksi, ja asiakaspalvelun sisäiseksi tueksi tarkoitettu tiedonhakuväline poikkeaa lopullisia lakineuvoja antavasta botista.

Hyvä nyrkkisääntö kuitenkin on, että tekoälyn osuus projektissa kannattaa aina pyrkiä pitämään alle 100 henkilötyöpäivän; jos sillä määrällä ei saa aikaiseksi toimivaa tuotantokelpoista versiota, kannattaa vakavasti harkita, ollaanko tekemässä liian paljon käsin – kannattaisiko odottaa vai etsiä vastausta jostain muualta?

Oikein timanttiseen business caseen kannattaa tietenkin panostaa enemmänkin, mutta valtaosa organisaatioista pärjää ensimmäisissä projekteissaan muutaman kymmenen päivän tekoälypanostuksella. Näihin työmääriin on tietysti lisättävä integraatioiden ja käyttöliittymien vaatimukset.

Muista varautua ylläpitoon

Erityisesti kielimallipohjaisissa tekoälyratkaisuissa on se etu, että markkina kipittää eteenpäin huimaa vauhtia. Jos bottisi ei vielä viime viikolla osannut runoilla Karjalan murteella, ei hätää – seuraava mallipäivitys voi hoitaa homman, ilmaiseksi. Tämän evoluution kääntöpuolena on myös se, että tehtyä ratkaisua on varauduttava ylläpitämään. Mitä lähempänä toteutus on asiakasrajapintaa, sitä todennäköisemmin jatkokehitystä tarvitaan esimerkiksi markkinoinnissa käytetyn terminologian ja aineiston kehittyessä.

Hyvä nyrkkisääntö on, että tuotannollisessa käytössä olevan tekoälyratkaisun ylläpitoon kannattaa varata 2–5 htp kuukaudessa, jos ratkaisu on käytössä alueella, jossa liiketoiminta kehittyy. Jos ratkaisu on käytössä suoraan asiakasrajapinnassa ja on liiketoimintakriittinen, kannattaa varautua merkittävästi suurempiin panostuksiin. Kuten aina tietojärjestelmien kanssa, telemetriapohjainen operointi on viisautta: data kyllä näyttää, mihin kannattaa keskittyä.

Ylläpitotyön yksi osa on myös huolehtia jatkuvasta oikeellisuudesta ja kattavuudesta myös vanhojen toteutusten osalta. Jos se Copilot on saatu sinne lopulta raksuttamaan, jokaisen uuden järjestelmän kohdalla tulisi myös käydä analyyttinen pohdinto: Miten tämä järjestelmä saadaan integroitua samaan ympäristöön, ja onko täällä kaikki datan laatuun, käyttöoikeuksiin ja vastaaviin liittyvät kysymykset huomioitu? Tähänkin käyttöön kannattaa joitain päiviä budjetoida, joskin määrät lienevät parhaiten juuri kyseisen järjestelmähankkeen hahmotettavissa.

Ahdistaako vai helpottiko jo? Haluatko pohtia organisaatiosi tekoälytulevaisuutta yhdessä? Ota yhteyttä!