LIIAN ITSENÄISET AGENTIT OVAT VAARALLISIA – Case ClawdBot / MoltBot / OpenClaw

Huolella suunnitellut ja tarkasti valvotut agentit ovat mainio työkalu monien aiemmin valtavasti ohjelmakoodia vaatineiden tai ratkaisemattomien automaatioiden rakentamiseen. Kielimallien semanttinen joustavuus, päätöksentekokyky ja domainymmärrys mahdollistavat sen, että ne pystyvät hoitamaan annetun tehtävän hyvinkin pienellä ohjeistuksella.

Tekoälyagentteja ei pidä kuitenkaan päästää toimimaan liian itsenäisesti. Vaikka kuvittelemme niiden hoitavat annettuja tehtäviä ihmismäisesti, niiden käyttäytymisessä on paljon piilouhkia, jotka on tunnettava. Antaisitko sinä sellaisen henkilön hoitaa valvomatta ja rajoituksetta omia tai yrityksesi sensitiivisiä asioita, jonka sitoutumien ja ymmärrys antamiisi ohjeisiin on hyvin häilyvää? Tarkoituksella tai tahattomasti agentille päätynyt vääränlainen syöte voi aiheuttaa sen, että agentti vuotaa sensitiivisiä tietoja maailmalle.

Tammikuun lopulla 2026 suuren yleisön tietouteen ja jättimäiseen suosioon nousi henkilökohtainen avustaja-agentti nimeltä ClawdBot, jonka nimeksi vaihtui nimiriidan jälkeen ensin MoltBot ja sitten lopulta OpenClaw. Tämän hyvin autonomisen tekoälyagentin ideana on toimia henkilökohtaisella tietokoneella ympäri vuorokauden yleisavustajana kaikenlaisissa tehtävissä, joita koneen omistaja siltä pyytää. Tätä varten agentti myös tarkkailee jatkuvasti omistajansa toimia, jotta voisi oppia palvelemaan häntä mahdollisimman hyvin.

Paljon hypetystäkin sisältäneen ylistävän vastaanoton jälkeen OpenClaw:n ympärille on alkanut kasaantua ongelmia, joista tietoturva-asiantutija varoittivat jo heti suosion kasvun alussa. Agentti osaa ilmeisen hyvin palvella käyttäjiään heidän arkipäiväisissä tekemisissään ja keksii omistajansa tarkkailusta tekemiensä havaintojen perusteella hyödyllisiä asioita jopa ilman erillistä ohjeistusta niihin. Jotta agentti voi suorittaa ao. tehtäviä sille on kuitenkin annettava täydet järjestelmän käyttöoikeudet, mistä piilee suuri varaa.

Järjestelmän täysillä käyttöoikeuksilla toimiva agentti pystyy tekemään omistajansa tietokoneella kaikkea, mitä sen omistajakin pystyy tekemään. Tai se pystyy itse asiassa tekemään ison kielimallin antaman tietopohjansa avulla paljon enemmän, kuin useimmat tietokoneiden käyttäjät. Tämä on pahantahtoisten hakkereiden unelma ja tietoturva-asiantuntijoiden painajainen.

Vaikka agenttiohjelmiston kehittäjä, Peter Steinberg, itsekin varoittaa ohjelmiston vaaroista ja asiantuntemattomista asennuksista, innokkaat kokeilija eivät ole varoituksista välittäneet. Vakavin vaara on ns. ”prompt injection”, joka tarkoittaa sitä, että pahantahtoinen taho saa muutettua agentin toimintaohjeita (promptia) ja siten valjastettua sen omiin tarkoituksiinsa.

Nykyinen kielimalliteknologian ehkä suurin heikkous on se, että kielimallit eivät pysty kunnolla erottamaan mitkä niille annetuista syötteistä ovat toimintaohjeita ja mikä dataa. Niinpä esimerkiksi agentin lukemaan sähköpostiin ujutettu taidokas hyökkäysteksti voi aiheuttaa sen, että agentti ymmärtää sähköpostin datan sijasta uudeksi toimintaohjeeksi ja lähettää paluupostissa hyökkääjän ohjeistamana sensitiivistä tietoa, johon agentilla järjestelmävalvojan oikeuksilla on pääsy. Varassa ovat esimerkiksi kaikki tietokoneelle tallennetut salasanat, henkilötiedot, API-avaimet, pankkitunnukset, jne.

Vaikka OpenClaw on kehitetty lähinnä yksityishenkilöiden henkilökohtaiseksi avustajaksi, niin yrityksissäkään ei voi nukkua agenttien riskitekijöiden suhteen. Erilaisten agenttipohjaisten automaatiotyökalujen lisääntyessä yhä useammin automaatiotyökulkuja rakentavat henkilöt, joilla ei ole riittävää ymmärrystä asiaan liittyvistä tietoturvavaatimuksista.

Mitä helpompaa näennäisesti automaation tekeminen yleispätevillä agenteilla on, sitä todennäköisempää on, että agentit ovat liian autonomisia ja siksi arvaamattoman vaarallisia. Agenttiset työnkulut pitää suunnitella huolella ja kunkin työvaiheen tarvitsemat oikeudet yrityksen dataan ja kommunikointiin rajata tarkasti.

Me Ai4Value:lla olemme panostaneet erityisesti tekoälyn tietoturvaan, joten ota yhteyttä, jos oman yrityksen AI-tietoturvaratkaisut askarruttavat. Meillä on myös aiheeseen koulutuspaketti nimeltä Tekoälyä tietoturvallisesti.