Tekoälyssä ja generatiivisessa tekoälyssä huomioitavat riskit

Tekoälyyn, kuten kaikkiin uusiin teknologioihin, liittyy aina riskejä. Esitän tässä näkemykseni suurimmista riskeistä yritysten tekoälytaipaleella. Ensimmäistä lukuun ottamatta ne eivät ole missään erityisessä järjestyksessä, koska riskin toteutuessaan mahdollisesti aiheuttaman vahingon vaikutus vaihtelee tapauskohtaisesti.
Tekoälyyn vähemmän perehtyneille alustuksena avaan lyhyesti muutamia tekoälyyn liittyviä keskeisiä termejä, joita käytän tekstissäni. Perinteinen, edelleen hyvin käyttökelpoinen, tekoälymenetelmien laaja luokka ovat ns. koneoppimisen (machine learning = ML) algoritmit. Tyypillisesti ML-algoritmit oppivat esim. luokittelemaan syötedataa haluttuihin luokkiin. Viime vuosina generatiivinen tekoäly, GenAI, on vallannut alaa, mutta ei täysin korvannut perinteisiä menetelmiä. GenAI tuottaa pelkän luokittelun sijasta monipuolisempaa ihmismäistä tuotosta ja päättelyä. Suuren suosion saanut ChatGPT on hyvä esimerkki siitä. Tällaisten ihmismäisten tekoälyapureiden moottoreina toimivat ns. suuret kielimallit (large language model = LLM).
Riski 1: Kilpailukyvyn menetys, jos jätät tekoälyn huomiotta
Ehdottomasti suurin riski yrityksille tekoälyyn liittyen on viivyttely sen käyttöönotossa. Se ei ole enää pelkkää hypeä, se ei katoa, eikä se odota, että muut ”tärkeämmät” projektisi valmistuvat ensin. Jos et suhtaudu tekoälyn liiketoimintaa tehostaviin mahdollisuuksiin vakavasti, sitä hyödyntävät kilpailijasi ajavat ohitsesi. Vaikka viivyttelyyn ei ole aihetta, on kuitenkin hyvä olla myös tietoinen tekoälyn sudenkuopista, joista osa on tyypillisiä mille tahansa kehityshankkeelle (niitä en käy tässä läpi), kun taas osa liittyy erityisesti tekoälyyn.
Riski 2: Tekoäly-sanan käyttö puhtaasti markkinointimielessä
Monet perinteisetkin IT-yritykset käyttävät nykyään markkinoinnissaan muotisanoja, kuten tekoäly, AI ja generatiivinen tekoäly, vaikka ne olisivat käyttäneet tekoälyä vasta vähän aikaa ja ymmärtävät tekoälyn haasteita vain pintapuolisesti. Edes perinteisten koneoppimisen pitkäaikainen osaaminen ei takaa generatiivista tekoälyä soveltavien projektien laadukasta toimitusta, sillä tällaiset projektit vaativat aivan uudenlaisia taitoja. Yritystoiminnan tarpeisiin soveltuva GenAI on ollut olemassa jo muutaman vuoden ajan. Siihen alusta lähtien satsanneet IT- ja AI-yritykset ovat paljon tietoisempia sen vahvuuksista ja sudenkuopista kuin ne, jotka vasta äskettäin ovat ottaneet se käyttöön uusien markkinoiden avautumisen innoittamina. On hyvä tarkistaa potentiaalisten palveluntarjoajien todellinen kokemus tekoälyalalla ja generatiivisen tekoälyn kanssa ennen AI-projektin toimittajavalinnan tekemistä.
Riski 3: Virheellinen data jää huomaamatta
Vanha sanonta ”Garbage in, garbage out” on jopa merkityksellisempi tekoälyprojekteissa kuin perinteisissä IT-projekteissa. Virheellinen tai huonolaatuinen syöte tuottaa väistämättä epäluotettavan tuloksen, ja tekoälyn tapauksessa tämän havaitseminen voi olla vaikeampaa, kuin suoraviivaisessa tietojenkäsittelyssä. Tämä pätee sekä perinteiseen koneoppimiseen että generatiiviseen tekoälyyn. Vaikka tekoälyalgoritmit voivat suodattaa satunnaisia pieniä datan virheitä pois, systemaattiset virheet eivät koskaan hoidu itsestään edes tekoälyllä. Siksi ei ole suositeltavaa syöttää esikäsittelemätöntä raakadataa millekään tekoälyalgoritmille. Hyvä uutinen kuitenkin on, että tekoälyä voidaan käyttää lähtödatan puhdistuksessa systemaattisten virheiden havaitsemiseen. Puhdistus on kuitenkin tehtävä ennen kuin tiedot syötetään varsinaisen tehtävän mukaiseen tekoälyalgoritmiin tai -järjestelmään.
Riski 4: GenAI:n ei-determinististä luonnetta ei ymmärretä
Perinteiset ML-järjestelmät ovat täysin deterministisiä. Generatiivinen tekoäly on luonteeltaan ei-deterministinen. Samalla syötteellä se tuottaa erilaisia tuloksia eri tilanteissa. Ehkä olette huomanneet tämän kysyessänne saman kysymyksen ChatGPT:ltä useaan kertaan ja saadessanne joka kerta hieman erilaisen vastauksen. Ammattitaitoiset GenAI-järjestelmätoimittajat ymmärtävät tämän käyttäytymisen erittäin hyvin. Ne ottavat sen huomioon rakentaessaan GenAI-ohjattuja tai -avustettuja järjestelmiä ja myös tiedottavat asiakkaalle sen mahdollisista seurauksista. Erittäin kriittisten järjestelmien kohdalla ei pitäisikään luottaa pelkästään generatiiviseen tekoälyyn (tai edes perinteiseen koneoppimiseen), vaan ainoastaan käyttää sen tuloksia apuna asiantuntevan ihmisen päätöksenteolle. Ei-kriittisissä järjestelmissä täysi automatisointi on mahdollista, jos tietty virheprosentti on hyväksyttävissä.
Riski 5: Hallusinaatiot jäävät huomaamatta
Suurten kielimallien ei-deterministisestä luonteesta johtuen niihin perustuvat järjestelmät voivat ns. hallusinoida eli antaa väärää tietoa satunnaisesti jopa tapauksissa, joissa ne yleensä vastaavat totuudenmukaisesti. Tämä voi johtua joko siitä, että koulutusdatassa on ollut liian vähän kyseisen aihepiirin esimerkkejä tai esimerkeissä on ollut ristiriitaista tietoa. Jos esimerkiksi aihepiirin koulutusdata sisältää faktatietoa 95% ja fiktiota 5%, niin toisinaan siihen perustuvat vastuksetkin voivat erehtyä fiktion puolelle. Itse kielimallien opettamisessa käytetyssä koulutusmateriaalissa ei ole mitään totuusarvoja. Mallit tuottavat tekstiä puhtaasti edeltävään tekstiin perustuviin todennäköisyyksiin nojaten. Ne eivät itse pysty erottamaan luotettavasti faktaa fiktiosta. Kielimallit pitäisikin ennemmin mieltää valistuneiden mielipiteiden antajina odottamatta niiltä absoluuttisia totuuksia.
Riski 6: Johdattelevat ohjeet ja pyynnöt tekoälyjärjestelmälle tuottavat vinoutuneita vastauksia
Vahvistusharha on taipumus nähdä uudet todisteet olemassa olevien uskomusten tai teorioiden vahvistuksina. Tämä on hyvin tyypillistä ihmisille ja siksi tämä harha on myös läsnä kielimallien koulutusdatassa, joten nekin oppivat tämän taipumuksen. Lisäksi malleja opetetaan palveluhalukkaiksi ja miellyttämään käyttäjäänsä. Tämän vuoksi mahdollisimman objektiivisen tuloksen saamiseksi kielimallipohjaiseen järjestelmään annettujen ohjeiden ja pyyntöjen ei pitäisi olla millään tavalla johdattelevia, vaan luonteeltaan neutraaleja.
Riski 7: Kielimallissa on opittua ennakkoluuloisuutta
Syrjivällä ennakkoluulolla tarkoitetaan yksilöiden tai ryhmien epäoikeudenmukaista kohtelua ominaisuuksien, kuten rodun, sukupuolen, etnisen alkuperän, uskonnon, seksuaalisen suuntautumisen, iän tai vammaisuuden, perusteella. Sosiaalinen media ja Internet ylipäänsä ovat täynnä tällaisia ennakkoluuloja, joten myös kielimallit ovat oppineet samat ennakkoluulot. Kielimallin viimeistelevän hienosäädön avulla mallin kehittäjät ovat yrittäneet opettaa sille syrjimättömyyttä ja puolueettomia näkemyksiä, mutta jälkiä niiden alkuperäisestä puolueellisesta opetusdatastaan ei kuitenkaan saada täysin pyyhittyä pois. Aina kun käsitellään ihmisiä koskevaa dataa, on oltava tietoinen näistä mahdollisista syrjivistä ennakkoluuloista tekoälyjärjestelmän vasteissa. (Huomasitko muuten tähän blogiin liittämässäni täysin neutraalilla ohjeella tekoälyltä pyytämässäni kuvassa mitään erityistä?)
Riski 8: Järjestelmä hakkeroidaan tietojen manipuloinnin avulla
Suuria kielimalleja käytetään yhä enemmän käsittelemään jäsentämätöntä tekstidataa, jota ei ole voitu käsitellä automaattisesti aiemmilla tekoälymenetelmillä. Kielimalleja käytetään antamalla niille ohjeita normaalilla luonnollisella kielellä ohjelmointikoodin sijasta. Tähän liittyvä suuri ongelma on, että sekä ohjeet että käsiteltävä data ovat tällöin molemmat luonnollisia tekstejä eivätkä mallit silloin pysty erottamaan niitä kunnolla toisistaan. Vaikka järjestelmän rakentaja antaisi selkeät ohjeet siitä, mitä tulee tehdä, mallit ovat taipuvaisia hyväksymään myös uusia ohjeita mistä tahansa käsittelemästään tekstistä sen alkuperästä riippumatta. Kielimallilla käsiteltävä tekstidata voi olla esim. chatista, internetsivusta, SharePoint-asiakirjasta jne. Tämä voi altistaa koko järjestelmän mahdolliselle hakkeroinnille tekniikalla, jota kutsutaan nimellä ”Prompt Injection” tai myös ”Jailbreaking”. Jos järjestelmällä on pääsy sekä yrityksen tietokantoihin että ulkomaailmaan, taitavasti rakennettu datan tai käyttäjän chat-syötteen sisään piilotettu kielimallin toimintaa manipuloiva lisäohje saattaa paljastaa arkaluontoiset tietosi hakkerille. Vakaviin toimenpiteisiin tällaisen hakkeroinnin estämiseksi on ryhdyttävä aina, kun on mahdollista, että pahantahtoiset tahot voisivat yrittävät manipuloida kielimallilla käsiteltävää dataa. Huomaa, että tämä ei koske pelkästään yrityksen ulkopuolelta tulevia uhkia, vaan myös pahantahtoisen tai uteliaan työntekijän tekemää sisäistä hakkerointia.
Riski 9: Tekoälyagentit villiintyvät liikaa
Viime aikoina kielimallipohjaisia tekoälyagentteja on ylistetty ratkaisuna autonomiseen monimutkaisten tehtävien suorittamiseen. Perinteisistä ohjelmistoista poiketen (ml. aiemmat tekoälyalgoritmit) agenttipohjaiselle järjestelmälle ei anneta ennalta määrättyjä ratkaisuaskeleita, vaan vain tavoite ja joukko työkaluja sen saavuttamiseksi. Yksi tai useampi agentti, joilla on eri rooleja, määrittelee sitten itsenäisesti askeleet tavoitteen saavuttamiseksi. Vaikka kielimallit ovatkin jo varsin älykkäitä, ja tämä saattaa kuulostaa täydelliseltä ratkaisulta ihmisten vapauttamiseksi monista tylsistä töistä, tällä lähestymistavalla on ongelmansa ja riskinsä. Suurin haaste näyttää olevan se, että mallit ovat liian luovia. Ne eivät aina noudata tavanomaisia ihmismäisiä menetelmiä tai ihmismäistä logiikkaa, vaan saattavat keksiä nerokkaan typeriä tai vaarallisia tapoja yrittää saavuttaa tavoitteensa. Yksi haitallinen seuraus tästä on, että ne saattavat käyttää valtavan määriä resursseja kymmeniin tai jopa satoihin kokeiluihin. Kustannuksella ei tietenkään välttämättä ole väliä, jos tavoite vihdoin saavutetaan, ja ihmistyötä säästyy riittävästi. Vakavin vaara piilee kuitenkin sellaisessa kekseliäässä toiminnassa, joka voi tahattomasti vaarantaa yrityksen tiedot, rahat, henkilöstön tai maineen. Agenttipohjainen tekoälyjärjestelmä on rakennettava luotettavuuden ja turvallisuuden takaamiseksi äärimmäisen huolellisesti. Usein kielimallien hallitumpi käyttö ratkaisussa hoitaa saman työn turvallisemmin ja vähemmin kustannuksin, vaikka sen alkuperäiseen suunnitteluun ja ohjelmointiin pitääkin investoida enemmän.
Loppusanat
Tarkoitukseni ei ole missään nimessä pelotella tekoälyn ja kielimallien riskeillä! Kuten alussa totesin, yritykset eivät pärjää, jos ne eivät ymmärrä tekoälyn tarvetta kilpailukykynsä säilyttämiseksi. Generatiivinenkin tekoäly on lyhyestä historiastaan huolimatta jo riittävän kypsä moniin tehtäviin, ja se mahdollistaa ennenkuulumattomia uusia ratkaisumahdollisuuksia yritysten arkipäivän haasteisiin. Älä anna yrityksesi jäädä jälkijunaan! Malta kuitenkin valita tekoälyprojekteihisi toimittaja, joka hallitsee perinpohjaisesti tämän loistavan teknologian hyötyineen ja sudenkuoppineen ja pystyy tarjoamaan yrityksellesi mahdollisimman riskittömiä tekoälyratkaisuja.
Meillä Ai4Valuella on vuosikymmenten kokemus tekoälystä yleensä, ja olemme olleet myös generatiivisen tekoälyn eturintamassa sen alusta lähtien.
Pasi Karhu, CTO
”Olen toiminut Ai4Valuessa CTO:na aina yhtiön perustamisesta alkaen vuonna 2018. Tekoälyosaamiseni ulottuu kuitenkin paljon pidemmälle: jo 1990-luvulla työskentelin koneoppimisalgoritmien parissa ja opetin keinotekoisten neuroverkkojen kurssia Helsingin yliopistossa. Viime aikoina olen erikoistunut suuriin kielimalleihin, mutta kollegani tietävät voivansa lähestyä minua misä tahansa tekoälyyn liittyvässä asiassa. Tekoälyhommiin en ole koskaan kyllästynyt, koska aihepiirin nopea kehitys pakottaa kokeneimmankin IT-ammattilaisen säännöllisesti oppimaan uutta ja miettimään ratkaisuja uusista näkökulmista.”