Tekoäly on noussut näkyväksi osaksi jokaisen arkea. Tekoälyjärjestelmät, kuten suuret kielimallit, voivat tuntua antavan fiksuja ja kattavia vastauksia kysymyksiin sairauksista, oireista ja lääkityksestä. Niihin voi olla helppo turvautua, kun jokin huolettaa tai kun vastaanottoaika on kaukana tulevaisuudessa. On kuitenkin tärkeää ymmärtää, mihin tekoäly teknisesti pohjautuu, millaisia virhelähteitä siihen liittyy ja esimerkiksi, mitä tietosuojaan liittyviä riskejä tekoälyn käyttämiseen liittyy.

Mitä on tekoäly ja miten se toimii?

Tekoäly (artificial intelligence, AI) on kattotermi, joka ei ilman tarkempaa määrittelyä tarkoita mitään erityistä asiaa. Tekoäly-sanaa käytetään erityisesti kansanomaisessa keskustelussa tarkoittamaan yleensä jotakin kokonaisuutta, jossa algoritmit ja/tai näistä koostuvat järjestelmät suorittavat perinteisesti ihmisen älykkyyttä edellyttäneitä tehtäviä. Perinteisesti järjestelmät ovatkin rakentuneet perinteisistä sääntöpohjaisista ja loogisista jos–niin-ehdoista. Tämän päivän tekoälyn varsinainen murros perustuu kuitenkin menetelmiin, jotka eivät nojaa valmiiksi laadittuihin sääntöihin, vaan joissa kone oppii itsenäisesti sille annetusta tietosisällöstä. Näitä koneoppimismenetelmiä on laaja kirjo klassisista tilastollisista tekniikoista syväoppimiseen ja monimutkaisiin neuroverkkoihin. Näissä olennaista on, että ihminen ei enää ole määrittänyt päätöksenteon logiikkaa suoraan, vaan kone on muodostanut sen itse koulutusdatansa perusteella.

Viime vuosina erityisesti generatiiviset (luonnollista kieltä ja tekstiä tuottavat) suuret kielimallit ovat nousseet poikkeukselliseen julkiseen ja myös tieteelliseen keskiöön. Näiden mallien kyky tuottaa uskottavaa ja ihmismäistä sisältöä – niin tekstiä, ääntä kuin liikkuvaa kuvaakin – on ymmärrettävästi herättänyt myös suuren yleisön mielenkiinnon.

Kielimallit perustuvat valtaviin tekstiaineistoihin. Ne muodostavat vastauksia puhtaasti todennäköisyyksien perusteella pohjautuen niille aiemmin näytettyihin tietosisältöihin, eikä loppukäyttäjä käytännössä voi tietää, mistä tilastollisesta kontekstista yksittäinen sana tai lause on muodostunut. Yksinkertaistaen voidaan ajatella niiden oppineen kaikesta internetistä löytyvällä sisällöllä ja liittävän aina todennäköisimmin toisiinsa liittyviä sanoja lauseiksi. Suurin osa nykyisesti kaupallisesti saatavilla olevista kielimalleista on lisäksi opetettu välttämään vastaamatta jättämistä. Toisin sanoen vastaus tuotetaan riippumatta siitä, kuinka epävarmoilla perusteilla se todellisuudessa syntyy. Kielimallit voivatkin esittää täysin väärää tietoa itsevarmalla sävyllä. Lääketieteessä ja erityisesti terveyteen liittyvissä kysymyksissä tämä on erityisen ongelmallista, koska väärä tieto voi johtaa väärään aikaan tehtyihin valintoihin tai esimerkiksi hoitoon hakeutumisen viivästymiseen.

Nykyisessä tekoälykeskustelussa näkyy ajoittain sama ilmiö kuin niin sanotussa lastikultissa Tyynenmeren saarilla toisen maailmansodan jälkeen. Kun teknologia toimii vaikuttavasti mutta sen toimintaperiaatteita ei ymmärretä, sen ympärille rakentuu uskomuksia ja rituaaleja. Todellisuudessa tekoäly on vain tilastollinen malli, jonka suorituskyky riippuu laadukkaasta opetusaineistosta, fiksuista käyttökohteista ja lopulta myös ihmisen valvonnasta ja riittävästä tulkintataidosta. Ellei tätä ymmärretä, päädytään helposti näennäiseen teknologiauskoon, jossa tekoälyn odotetaan antavan vastauksia kysymyksiin, joita se ei ole koskaan oppinut ratkaisemaan. Tekoäly ei siis aidosti "mieti" – kyse on matematiikasta ilman syvällisempää älykkyyttä.

Tekoälyn soveltaminen potilaana

Edellä kuvatuista teknisistä rajoitteista huolimatta tekoäly (tässä tapauksessa tarkoittaen suuria kielimalleja) voi olla hyödyllinen kumppani silloin, kun etsimme tietoa tai haluamme vahvistaa ymmärrystämme omasta sairaudestamme. Se voi auttaa hahmottamaan lääketieteellisiä termejä ja ymmärtämään tautiprosesseja. Tekoäly voi tarjota yleisiä näkökulmia hyvinvointiin ja elintapoihin, kuten uneen, liikuntaan ja ravitsemukseen. Turvallisin tapa hyödyntää tekoälyä terveyteen liittyvissä kysymyksissä onkin pitää se tiedonhaun tukena – ei diagnoosin tai hoitopäätösten tekijänä. Kielimallilta voi useimmissa tapauksissa myös kysyä sen vastauksissa käyttämistä lähteistä, jolloin tiedon taustasta ja oikeellisuudesta voi saada paremman käsityksen.

Tekoälyn kanssa käydyistä keskusteluista voi myös hyvin kysyä suoraan lääkäriltä tai muulta terveydenhuollon ammattilaiselta, tai ainakaan käymiään pohdintoja ei kannata tietoisesti jättää kertomatta. Ammattilaiset ajattelevat aina potilaan etua ja ovat valmiita pohtimaan myös tekoälyn esille nostamia kysymyksiä ja teemoja.

Tekoäly ei koskaan sovellu äkillisiin, nopeasti paheneviin tai hengenvaarallisiin oireisiin, vaan niiden osalta tulee aina hakeutua viipymättä ammattilaisen arvioitavaksi. Myöskään mielenterveyteen liittyvissä kriiseissä tekoäly ei nykyisen näytön mukaan korvaa ihmisen tarjoamaa tukea ja ammattiapua.

Tietosuojan osalta on hyvä huomioida, että mikäli kirjoitamme tekoälyjärjestelmiin terveys- tai muita henkilötietojamme, ne siirtyvät käytännössä palveluntarjoajan järjestelmiin ja usein myös EU:n ulkopuolelle. Aina ei ole selvää, miten kauan tietoja säilytetään, ketkä niitä voivat hyödyntää tai hyödynnetäänkö niitä tekoälyn jatkokoulutuksessa. Terveydenhuollossa toimivien järjestelmien on noudatettava tarkkoja sääntelyvaatimuksia, mutta avoimet verkkopalvelut eivät useinkaan kuulu tähän joukkoon. Siksi yksityiskohtaisten potilastietojen jakamista näille verkkopohjaisille palveluille kannattaa välttää.

Tekoäly voi siis olla hyödyllinen, kun tiedostaa sen toimintalogiikan ja osaamisen rajat. Omaa terveyttä koskevat päätökset on kuitenkin syytä tehdä yhdessä koulutetun ammattilaisen kanssa.

Kirjallisuutta

  1. Alber DA, Yang Z, Alyakin A, ym. Medical large language models are vulnerable to data-poisoning attack. Nat Med 2025;31:618–26.
  2. Tikkanen J, Ristimäki M, toim. Tekoäly lääketieteessä. Helsinki: Kustannus Oy Duodecim 2025.
  3. Kim J, Podlasek A, Shidara K, ym. Limitations of large language models in clinical problem-solving arising from inflexible reasoning. Sci Rep 2025;15(1):39426 PMID: 41219270