Mitä tekoälylle tapahtui kesän aikana?

Maailma ei pysähtynyt juhannuksena, kun Suomi lähti lomalle. Kertaamme tärkeimmät tapahtumat generatiivisen tekoälyn maailmassa kesäkauden ajalta.

Käydäänpä sen pidemmittä otsikoitta suoraan asiaan. Heinäkuun tekoälydialogin top 5, olkaa hyvä!

#1: Metan laama kiihdyttää kaikkia kisaajia

Vuoden 2023 AI-hurmos sai lähtölaukauksensa ChatGPT:stä, ja hypellä on ollut vain yksi kunnon kapellimestari – tietenkin OpenAI. Microsoft mittavine konesaleineen on toiminut kelpo orkesterina, joka on tuutannut ilosanomaa koko maailmalle. Oli toki vain ajan kysymys, milloin GPT-perhettä ryhdytään todella haastamaan, ja nyt kesällä se sitten tapahtui.

Meta julkaisi heinäkuun puolivälissä LLaMA 2 -mallin, joka muistuttaa paljolti OpenAI:n tuotoksia. Yksi keskeinen ero siinä kuitenkin on: Voit ajaa mallia missä haluat, ja se on ilmaista (kunhan maksat sen ajokustannukset). Meta kutsuu ratkaisua peräti ”avoimeksi lähdekoodiksi”, mutta tätä on kritisoitu: malli on kyllä ilmaiseksi saatavilla, mutta sen kouluttamiseen käytettyä menetelmää tai materiaalia ei ole julkaistu.

Vaikka Metan avoimuuspyrähdyksen voi sanoa jääneen puolitiehen, LLaMA 2 on silti tärkeä virstanpylväs. Koska sitä voi ajaa missä vain omalla raudalla, se kiihdyttää paikallisen kielimallitekoälyn kehitystä. GPT-4:n tasoinen järkeily ei tule pyörimään omassa puhelimessa vielä hetkeen, mutta merkittäviä harppauksia voidaan ottaa jo yhden työpöytä-PC:n tai palvelimen kokoisissa ratkaisuissa. Aika näyttää, miten kiihkeäksi markkina tässä kehittyy – jos kuvagenerointiin käytetystä Stable Diffusionista voi mitään päätellä, varsin kiihkeäksi.

Kiinnostavaa on myös se, että Meta teki julkaisunsa Microsoftin Inspire-konferenssissa – sillä Azure on Metan ykköskumppani uusien mallien ajamisessa. Vaikka Azure ei toki olekaan ainoa ajoalusta (toisin kuin OpenAI:n malleissa tällä hetkellä), tässä on mukana positiivinen viesti: On aivan OK rakentaa tällä hetkellä omaa AI-strategiaa Microsoftin pilven varaan, sillä siellä tulee jatkossa(kin) olemaan vaihtoehtoisia malleja, jos OpenAI:n suunta lakkaa miellyttämästä.

#2: Bing Chat Enterprise – chatti joka torppaan

Eräs Inspire-konferenssin keskeinen julkaisu oli myös Microsoftin Bing Chat Enterprise -paketointi. Siinä GPT-4:ään pohjautuva Bing Chat tarjotaan yritysasiakkaiden käyttöön ilmaiseksi – kunhan pohjalla on vähintään Microsoft 365:n E3-tason lisenssit.

Miten tämä siis eroaa ChatGPT:stä? Sen verran, että Bing-toteutuksessa on mukana reaaliaikaiset nettihaut ja Bingin muut taustatiedot. Lisäksi Bing Chat Enterprise sisältää Microsoftin takeet siitä, että dataa ei säilötä eikä käytetä mihinkään. Ja tietysti, koska se on ilmainen, säästytään irrallisten ChatGPT Plus -tilausten ostamisen vaivalta.

Näin helposti se yritystekoäly toimii!

Toisaalta Bing Chat Enterprise on myös hyvin yksinkertainen tuote. Tällä hetkellä se ei tue edes keskusteluhistoriaa, eikä nykykonseptiin sovi myöskään minkäänlainen yritystason räätälöinti. Jos tavoitteena on vain korvata ChatGPT, BCE on hyvä vaihtoehto. Jos tavoitteena on rakentaa organisaation omaan dataan ja kulttuuriin nojaava tekoäly, tarvitaan räätälöityä chat-ympäristöä.

#3: Microsoft 365 Copilot sai hintalapun

Microsoftin ehkä merkittävin tekoälytuote on vielä horisontissa siintävä Microsoft 365 Copilot. Valitettavasti julkaisuaikataulusta ei ole vielä mitään tietoa, ja realistisesti käyttöönotot menevät luultavasti pitkän matkaa ensi vuodelle. Hinta kuitenkin julkaistiin: 30 e/käyttäjä/kuukausi – kunhan pohjalla on se sama Microsoft 365:n E3-lisenssi.

Aiheesta kirjoitinkin aiemmin jo heinäkuussa, joten ei siitä enempää nyt.

#4: GPT-4 tyhmeni – enemmän tai vähemmän

Heinäkuun ehkä suurin keskustelu käytiin sen ympärillä, onko GPT-4 muuttumassa vähemmän kyvykkääksi. Stanfordin tutkijoiden selvityksen mukaan GPT-4:n suorituskyky monimutkaisissa logiikkaongelmissa oli heikentynyt alkukeväästä, kun taas GPT-3.5 oli entistä vahvempi – vaikkei vielä nelosen tasolla. Tulosten oikeellisuudesta ja merkityksestä syntyi pitkä ja monisäikeinen debatti.

Muutosten taustalta löytynee erilaisia tekijöitä. On hyvin todennäköistä – vaikkakaan ei julkisesti vahvistettua – että OpenAI tekee jatkuvasti töitä saadakseen GPT-4:stä suorituskykyisemmän ja halvemman. Osana tätä työtä mallia luultavasti optimoidaan siihen käyttöön, jossa sen voi saada toimimaan luotettavimmin: tekstin käsittelyyn. Looginen päättely, matemaattiset pähkinät sun muut onnistuvat mallilta koulutuksen sivutuotteena, mutta niiden toimivuuden optimointi ei liene listalla ykkösenä.

”Tekoäly muuttuu tyhmemmäksi” -sensaatio-otsikot kannattaa sivuuttaa, sillä mitään pysyvää heikkenemistä tuskin nähdään. Tärkeä huomio kuitenkin on se, että muutokseen varautuminen on jatkuvasti tarpeen. Kun kielimalleihin pohjautuvaa tekoälyä käytetään mihin tahansa rationaalista päättelyä vaativiin tilanteisiin, on mietittävä myös prosesseja, joiden avulla mallin versiovaihdosten vaikutusta pystytään huomioimaan ja hallitsemaan.

#5: OpenAI-päivitysten suhde Azureen selkeni

Kesä antoi myös ainakin viitteellisen vastauksen yhteen kysymykseen: Kuinka nopeasti Azure OpenAI Serviceen saadaan OpenAI:n uusimmat päivitykset? Microsoft on ilmaissut, että heidän tavoitteenaan on seurata OpenAI:n evoluutiota kerkeästi, mutta kesän päivityskierros oli ensimmäinen, joka tätä oikeastaan konkretisoi.

OpenAI julkaisi sekä GPT-3.5:sta että GPT-4:stä 0613-versionumeroidut mallit 13.6.2023. Azureen nämä mallit saapuivat reilu kaksi viikkoa myöhemmin, ja function calling -toiminnallisuus sitten vielä muutaman viikon perässä. Tämän tiedon perusteella voi sanoa, että toistaiseksi Azure OpenAI Service on pitänyt lupauksensa: muutaman viikon viiveellä on merkitystä vain kaikkein kovimmille AI-kirurgeille. Kiinnostavaa on myös mallien poistumisaikataulu: OpenAI ilmoitti alun perin, että mallien vanhat versiot poistuvat käytöstä kolmessa kuukaudessa – käytännössä syyskuussa. Azure lupasi vanhoille malleillekin vuoden elinkaaren, ja OpenAI:kin joutui lopulta taipumaan pidempään tukeen. Aiemmin puhuttiinkin jo mallien käytöksen muutoksista, ja siinä suhteessa tällä asialla on suuri merkitys: kun versiovaihdosten ei voi luottaa olevan täysin ennakoitavia, kriittisten sovellusten testaaminen eri malliversioilla on välttämätöntä.

Mallipäivitysten myötä valitettavasti esiin nousee myös tämän päivän pilvitekoälyn yksi turhauttavimmista haasteista: kapasiteetin rajallisuus. Uusia 0613-malliversioita nimittäin saa tällä hetkellä EU:ssa vain Ranskan palvelinkeskuksesta, kun taas vanhaa 0301:tä pyöritetään vain Amsterdamissa. Pikkujuttu, mutta datan siirtely palvelinkeskusten välillä malliversioiden mukaan on turhauttavaa säätöä, jollaisesta toivottavasti päästään eroon syksyn mittaan. Jääpähän jotain odotettavaa sinnekin!

Haluatko jutella tekoälyn viimeisistä käänteistä, tai pohtia kielimallien soveltuvuutta liiketoimintaasi? Ota yhteyttä!