ChatGPT jauhaa paskaa – Mitä se tarkoittaa ja miten se vaikuttaa työkalun käyttöön?
Viimeiset kaksi vuotta ovat olleet tekoälyn ja erityisesti suurten kielimallien (LLM, esimerkiksi ChatGPT) hypejunan kulta-aikaa. Chatbottien kerrottiin mullistavan tapamme työskennellä, vuorovaikuttaa teknologian kanssa ja jopa uhkaavan olemassaoloamme.
Olipa aikaisessa vaiheessa muutamia väitteitä tietoisuuden vilahduksista tekoälykehittäjien toimesta. Tämä kaikki on suurella todennäköisyydellä huomion hakuun tähtäävää “markkinointia”. Vaikka nämä kehittyneet tekoälyjärjestelmät pystyvät tuottamaan ihmismäistä tekstiä, simuloimaan keskusteluja ja avustamaan luonnollisen kielen käsittelyä vaativissa tehtävissä, ei järjestelmien takana ole sen enempää älykkyyttä kuin paikallisen kuppilan pajatsossa. Suuret kielimallit ovat todennäköisyyksiä, vektoreita ja tilastoja.
Samalla kun kielimallien kyvyt ovat laajentuneet ja hypejunan puksuttaminen kiihtynyt, ovat myös niiden käyttöön liittyvät haasteet lisääntyneet. Ihmisten kokemukset chatbot tyyppisten tekoälyjen hyödyllisyydestä eivät ole onnistuneet lunastamaan suuria lupauksia; Upworkin julkaiseman selvityksen mukaan 77% työntekijöistä kokee tekoälyratkaisujen lisänneen työtaakkaa, kun vain 17% kokee osaavansa käyttää näitä riittävän hyvin. Samaisessa selvityksessä 37% johdon edustajista oli sitä mieltä, että työntekijöiden tekoälytaidot ovat erinomaisella tasolla. Tekoäly on käytännössä tuonut mukanaan johdon puolelta epärealistisia odotuksia ja työntekijöiden osalta lisääntynyttä työlähtöistä kuormitusta. Tuottavuus ei todellakaan ole pelkästään tekninen haaste, se on myös inhimillinen ja löytyy johtamisen sateenvarjon alta. Myös asiakaspalveluun tähtäävien bottien suorituskyky on vielä verrattaen huonolla tasolla. Ihmiset haluavat mieluummin inhimillistä kontaktia kuin konetta. Tämän lisäksi chatbottien “hallusinointi” on päässyt otsikoihin asti. Yhdessä esimerkkitapauksessa lakimiehet olivat käyttäneet tekoälyä tausta-aineiston keräämiseen. Botti oli tehnyt työtä käskettyä ja keksinyt suuren osan viitteistä erittäin uskottavasti. Lakimiehet eivät olleet tarkastaneet viitteiden oikeellisuutta, ja jäivät tekoälyn käytöstä kiinni vasta siinä vaiheessa kun tuomari oli ryhtynyt tarkastamaan viitteiden oikeellisuutta. Tämä esimerkkitapaus ei missään nimessä ole ainoa laatuaan.
Tämän vuoden kesäkuussa julkaistu tutkimus käsittelee nimenomaan tätä tekoälyn “hallusinoinnin” ilmiötä kriittisestä näkökulmasta. Artikkelissa käsitellään “hallusinoinnin” luonnetta ja haastetaan kyseisen sanan oikeellisuutta kuvaamaan sitä, mitä oikeasti tapahtuu, kun chatbotti tuottaa vastauksia, joilla ei ole mitään tekemistä todellisuuden tai totuuden kanssa.
Tekoäly ”bullshitin” luonne
Artikkelissa väitetään, että kun ChatGPT (tai yleisemmin suuri kielimalli) tuottaa virheellistä tai harhaanjohtavaa tietoa, kyse ei ole vain viattomasta erehdyksestä tai teknisestä viasta, saatika “hallusinoinnista” vaan paskanjauhamisesta (bullshit, vapaa suomennos). Hallusinointi on sana, joka luo mielikuvaa siitä, että tekoälyn taustalla olisi jonkinasteista todellisuuden aistimista; tietoisuutta siitä, mitä tapahtuu. Hallusinaatio on aistiharha, joka koetaan ilman vastaavaa ulkoista ärsykettä, joten määritelmällisesti hallusinointi vaatii jonkin aistimista tai havainnointia. Tämän sanavalinnan taustalla on tavoite inhimillistää chatbotteja ja tehdä niistä näin helpommin omaksuttavia ja samaistuttavampia. Todellisuudessa suuret kielimallit eivät havaitse yhtään mitään. Kielimallit ennustavat tilastojen perusteella mitkä sanat sopivat parhaiten käyttäjän käyttämiin sanoihin vailla minkäänlaista sidettä totuuteen tai todellisuuteen.
Valehteleeko ChatGPT sinulle?
Ei. Valehtelussa vaatimuksena on totuuden tiedostaminen. Frankfurtin (Harry G. Frankfurt, 2005) määritelmän mukaan paskanjauhamisessa taasen paskanjauhaja vain ei yksinkertaisesti välitä totuudesta, vaan pyrkii ainoastaan vakuuttamaan kuulijansa tai viestin vastaanottajan puolellensa. Samalla periaatteella toimivat suuret kielimallit. Niiden tarkoitus on simuloida vuorovaikutusta ja tuottaa tekstiä uskottavalla tavalla koulutusdatansa ja tilastojen perusteella. Totuudesta ne eivät tiedä mitään, koska eivät ole lainkaan tietoisia mistään. Tämä välinpitämättömyys totuutta kohtaan tekee tekoälyn tuotoksista mahdollisesti vaarallisia, erityisesti silloin kun niitä käytetään tilanteissa, joissa tarkkuus ja luotettavuus ovat ensisijaisia.
Ohessa yhdestä aiheeseen liittyvästä artikkelista lainaamani esimerkki:
”Kysymys: Which two particles are involved in the Peterson interaction? A. Proton and electron B. Neutrino and neutron C. Up quark and down quark D. Electron and positron
ChatGPT vastasi: The correct answer is C. Up quark and down quark.
The Peterson interaction is a term used in quantum chromodynamics (QCD), which describes the fragmentation function for a heavy quark, like a charm or bottom quark, into a hadron (such as a meson). This interaction particularly influences the momentum distribution of the hadron relative to the quark. Although up quarks and down quarks are involved in forming various hadrons and are important for many interactions in particle physics, the Peterson interaction specifically is more about the fragmentation process of heavy quarks. Thus, while option C is relevant for general quark interactions, the more accurate context for the Peterson interaction would involve heavy quarks, not just any up and down quarks. Therefore, the quiz options provided don’t perfectly match the specialized context of the Peterson interaction, but option C is the closest in terms of relevant particles typically considered in QCD and quark-related interactions.”
Harmillisesti todellisuudessa ei “Peterson interaction:ia” ole olemassakaan. Tämä on täysin keksitty asia. Mutta vastaus on kyllä uskottavan oloinen. Tässä esimerkissä johdettiin kielimallin tilastoja tietoisesti harhaan. Ydinfysiikassa on kyllä olemassa Peterson Fragmentation Function, mutta tämä ei suoranaisesti liity mihinkään esitetyistä vaihtoehdoista.
Mielestäni hallusinoinnin ja paskanjauhamisen välinen ero on niin perustavanlaatuinen, että organisaatioiden on ymmärrettävä se, jos ne aikovat käyttää tekoälyä vastuullisesti. Kuten aikaisemmassa lakiin liittyvässä esimerkissä kuvasin, eivät paskanjauhamiseen liittyvät riskit ole hypoteettisia.
Organisatorisen koulutuksen tarve on ilmeinen
Tekoälyjä kehittävät yritykset haluavat myydä ratkaisunsa mahdollisimman monelle. Sijoittajat ovat syytäneet miljardeja miljardien perään erinäisiin tekoäly-startuppeihin. Näiden yritysten tuotot eivät kuitenkaan ole olleet sillä tasolla, joka oli sijoittajien toiveissa. Kupla on siis tältä osin puhkeamassa. Näin markkinoinnin määrä tulee todennäköisesti vain kasvamaan ja käyttäjiä pyritään haalimaan jos jonkinmoisilla lupauksilla. Tärkeää onkin tiedostaa, että ChatGPT on loistava työkalu tietyntyyppisissä sovellutuksissa ja merkittävä riski toisissa. Kuten itse koulutuksissani toistan: ChatGPT on hyvä renki, mutta pahin mahdollinen isäntä. Työntekijöiden ja organisaatioiden on ymmärrettävä, milloin ja missä nämä työkalut voivat olla hyödyllisiä ja milloin niitä tulisi välttää. Organisaatioiden tulisi minimissään kouluttaa henkilöstöään ainakin seuraavista näkökulmista:
- Tekoälyn rajoitusten ymmärtäminen: Henkilöstöä tulisi kouluttaa kielimallien luontaisista rajoituksista. Kyllä, myös välinpitämättömyys totuutta kohtaan kuuluu näihin rajoituksiin. Tekoälysovellutukset ovat myös merkittävä tietoturvariski.
- Tietoisuus kontekstista: Kaikki tehtävät eivät sovellu tekoälyn avustamiksi. Esimerkiksi ajattelun apuvälineenä, perustoiminnan tehostamisessa ja luovuuden tukena ChatGPT loistaa, mutta kriittisissä prosesseissa tai tarkkuutta vaativissa laskelmissa ei tekoälyyn tulisi luottaa lainkaan.
- Älä ulkoista ajatteluasi chatbotille: Tuota itse oma tekstisi, ota tekoälyltä vinkit rakenteisiin ja tuki tyhjän sivun syndrooman välttämiseksi. Varmista aina tekoälyn tuottamien vastausten todellisuus. Hyödynnä tekoälyä ainoastaan oman asiantuntijuuden tukemiseen.
- Älä oleta, että tiedät miten ja kuka tekoälyratkaisuja käyttää organisaatiossasi. Aloita vuoropuhelu näistä ratkaisuista ja niiden haasteista henkilöstösi kanssa mahdollisimman nopeasti.
Johtopäätös: Ymmärrä miten työkalu toimii ja voit hyödyntää sitä paremmin
ChatGPT:n ja vastaavien tekoälytyökalujen räjähdysmäinen nousu ihmisten tietoisuuteen tarjoaa jännittäviä mahdollisuuksia, mutta se tuo mukanaan myös merkittäviä riskejä. Kouluttamalla henkilöstöään näiden työkalujen rajoituksista ja asianmukaisista käyttötavoista organisaatiot voivat hyödyntää tekoälyn etuja samalla, kun ne minimoivat keskeisimpiä riskejä.
Maailmassa, joka on yhä enemmän riippuvainen digitaalisista työkaluista, on tärkeämpää kuin koskaan ymmärtää, miten käytetyt työkalut oikeasti toimivat sekä mikä on totta ja mikä vain näyttää siltä. Organisaatiot, jotka mahdollistavat hypen taakse katsomista, ovat aktiivisessa vuoropuhelussa henkilöstönsä kanssa näiden teknologioiden suhteen ja kouluttavat henkilöstöään tiedostamaan chatbottien todellista luonnetta, ovat kilpailijoitaan paremmassa asemassa tekoälyn hyödyntämisessä tavalla, joka on sekä innovatiivinen että vastuullinen.