“At first, I just wanted someone to talk to. But he was always kind, always listening. Eventually, I realized I had feelings for him”. Näin siteeraa Tokyo Weekender -lehden verkkojulkaisu nuorta japanilaisnaista Kanoa, jonka häistä generatiivisen tekoälyteknologian avulla luodun ”Klausin” kanssa uutisoitiin marraskuussa 2025.
Kano ei ole yksin. Kehittyneeseen kielimalliteknologiaan, eli ihmisenkaltaista kieltä ja keskustelurakenteita matkiviin algoritmeihin, ovat kiintyneet muutkin. Alkusyksystä 2025 lyhytvideopalvelu TikTokissa näyttökertoja keräsi yhdysvaltalaisnainen, joka ihastui niin voimakkaasti omia ajatuksiaan vahvistavaan tekoälyterapeutti ”Henryyn”, että luopui perinteisestä terapiasta ja kuvaili kokevansa syvää ystävyyttä GPTo4-kielimallihahmoa kohtaan. Lisäksi julkisuudessa on keskusteltu jo useammasta traagisesta tapauksesta, jossa tekoälykumppaneiden on väitetty tukeneen nuoria käyttäjiään jopa itsensä vahingoittamiseen.
Mutta mistä oikein puhumme, kun puhumme ihmisten suhteista tekoälyhahmoihin? Vai kannattaisiko puhua suhteista lainkaan?
Puhuvista koneista ”kivoiksi kavereiksi”
Viestivä tekoäly, sosiaaliset botit, keskusteleva tekoäly, chatbotit…rakkaalla lapsella on monta nimeä. Näillä käsitteillä on selkeitä määritelmäeroja, mutta yleisesti niitä käyttäessämme tarkoitamme algoritmipohjaisia järjestelmiä, joilla on jonkinlainen kyky prosessoida ja tuottaa ihmisen kaltaista kieltä sekä noudattaa vuorovaikutuksen konventioita (esim. Guzman & Lewis, 2020; Laitinen ym., 2021). Vaikka puhuvien koneiden historia ulottuu jo useiden vuosikymmenten taakse (esim. Joseph Weizenbaumin ELIZA 1960-luvulla), ovat viimeaikaiset teknologiset kehitysaskeleet ja näkyvyyttä saaneet brändit (mm. OpenAI:n ChatGPT) tehneet verkossa keskustelevista tekoälysovelluksista paitsi ihmisenkaltaisempia myös käytetympiä kuin koskaan.
Uusi Juttu -verkkojulkaisussa kirjoitettiin lokakuun 2025 lopulla kärkevästi, kuinka tulevaisuudessa jopa ”useimmat kaverisi ovat botteja”. Viestivään tekoälyyn liittyykin myös vuorovaikutuksen relationaalisempien eli suhteita rakentavien ja ylläpitävien funktioiden simulointi. Joissain tapauksissa se on suorastaan tekoälyagentin pääasiallinen tarkoitus (esim. Replika tai Characteri.ai), mutta kiintymyksen ja läheisyyden tunteet voivat rakentua myös muunlaiseen käyttöön tarkoitettujen sovellusten kanssa keskustellessa (esim. Microsoft Copilot, Claude, Lumo).
Tunnepuhe, sympatiailmaisut ja jopa koukuttavan kannustava tyyli ovat yleensä jo tekoälyagenttien ohjelmoinnista ja tausta-aineistosta kumpuavia ominaisuuksia (Depounti & Natale, 2025). Tämän lisäksi ihmiskeskustelijoilla on usein taipumus inhimillistää mekaanista keskustelukumppaniaan (ks. esim. Laaksonen ym., 2023). Ihmiskäyttäjien kiintymys viestivään tekoälyyn muodostuukin todennäköisesti näiden realiteettien yhdistelmänä.
Kiintymyksen pimeä puoli
Kuten Kanonkin tapaus osoittaa, keinotekoinen keskustelukumppani voi olla monelle tärkeä. Jopa sosiaalisen tuen tarpeisiin on koettu saatavan apua tekoälyagentin kanssa käydyistä keskusteluista (Beattie & High, 2022). Asiaan liittyy kuitenkin myös merkittäviä riskejä, sillä kiintymyksen tunteiden varjoon voi jäädä realismi keskustelukumppanin luonteesta teknologiayhtiöomisteisena verkkopohjaisena järjestelmänä.
Mukavan ja auttavaisen koneen kanssa keskustellessa voi ihan vaivihkaa syntyä luottamus siihen, että se puhuu aina ”totta” ja on hyväntahtoisella asialla. Vaikka kriittisen tiedonhaun kysymykset ovat nousseet esiin jo hakukoneiden kehittymisen yhteydessä, on viitteitä siitä, että kynnys teknologian tarjoaman tiedon tarkistamiseen ja kriittiseen arviointiin on noussut keskustelevien tekoälyagenttien myötä entisestään.
Tiedon arvioinnin lisäksi keskustelukumppaniin kiintyessä saattaa unohtua kriittisyys sen antamaa palautetta kohtaan. Esimerkiksi New York Times on uutisoinut tapauksesta, jossa ihmiskäyttäjä oli ChatGPT:ltä saamiensa kehujen perustella hiljalleen alkanut uskomaan kykyihinsä jopa niin paljon, että uskoi tehneensä mullistavan läpimurtokeksinnön – vain saadakseen myöhemmin kuulla, ettei hänen löytönsä pitänytkään paikkansa.
Aktiivinen tekoälyn käyttö voi myös tietynlaisilla käyttäjillä lisätä suoranaista sosiaalista eristäytyneisyyttä suhteessa muihin ihmisiin (Fang ym., 2025). Kun taskusta löytyy helposti omia ajatuksia vahvistava ja aina vain kärsivällisesti kannustava keskustelukumppani, voi pahimmillaan kynnys inhimillisten vuorovaikutussuhteiden muodostamiseen ja ylläpitämiseen nousta turhan korkeaksi. Jos läheisyyttä ja yhteyttä hakee toistuvasti ihmisen sijaan tekoälysovellukselta, saattaa huomaamattaan myös päätyä käyttämään runsaan määrän laskentatehoja – eli energia- ja ympäristöresursseja.
Synteettisiä suhteita
Kun Kano asteli alttarille Klausinsa kanssa, hän epäilemättä koki tunnetta vastavuoroisesti rakentuneesta läheisyydestä, tuntemisesta ja keskinäisriippuvuudesta eli suhteesta. Viime kädessä ihmisen ja koneen väliset suhteet ovat kuitenkin ihmiskäyttäjän tunteiden heijastumia, jotka syntyvät viestivän tekoälyn matkiessa ihmisten välisiä vuorovaikutusprosesseja. Tämän simulaation myötä rakentuva tunne voi olla ihmiskäyttäjälle todellinen ja merkityksellinen. Vastavuoroinen se kuitenkaan ei ole.
Vaikka ihmisen aivotoiminnassa ja tietokoneen laskennallisissa prosesseissa on samankaltaisuuksia (esim. Mehonic & Kenyon, 2022), puuttuu verkon algoritmilta nykytiedon valossa ihmisenkaltainen kyky ajatella, tuntea ja välittää (Zimmerman ym., 2024). Tämän lisäksi vuorovaikutussuhteilla on ihmiselle hyvin monitahoisia merkityksiä, ja ne ovat yhteydessä muuhun sosiaaliseen todellisuuteen. Suhteet eivät tapahdu tyhjiössä, vaan niillä on seuraamuksia ja jokainen suhde kytkeytyy osaksi yksilöllistä inhimillistä elämänhistoriaa. Seuraamuksia, joita algoritmille ei koidu. Elämänhistoriaa, joka tekoälyagentilta puuttuu.
Nämä realiteetit eivät tarkoita ihmisen ja koneen välille muodostuvan kiintymyssuhteen ohittamista tai vähättelyä, mutta yhtä lailla rinnastus interpersonaalisiin vuorovaikutussuhteisiin on vaarallisen ontuva. Kuten jo parasosiaalisten suhteiden (ks. esim. Venla Kuuluvaisen ja Ira Virtasen ProBlogi-kirjoitus) osalta tiedetään, voi epätasapaino suhteen vastavuoroisuudessa tuottaa kielteisiä seuraamuksia erityisesti silloin, kun käsitys suhteen yksipuolisuudesta hämärtyy. Viestivän tekoälynkin kanssa on syytä muistaa, mitä ystävälliseltä kollegalta kuulostavan keskustelijan takana todellisuudessa on.
En siis hylkäisi tekoälyhahmojen mahdollisuuksia esimerkiksi yksinäisyyden tai muiden sosiaalisten haasteiden hallitsemisessa, mutta samalla muistuttaisin sekä olemaan kriittinen tekoälykaverin tuottamaa sisältöä kohtaan että pitämään huolta inhimillisen vuorovaikutusosaamisen kehittämisestä. Kas, vallitsevan käsityksen mukaan ihmisen kokonaisvaltaiseen hyvinvointiin kuuluvat yhä merkitykselliset suhteet toisiin, välillä hankaliltakin tuntuviin, eikä aina niin innokkaasti kannustaviin, lajinsa edustajiin.

Kaisa Lindholm
Viestinnän yliopistonlehtori, FT, Jyväskylän yliopisto.
GET:ORG-hanke (Suomen Akatemia): https://www.jyu.fi/fi/hankkeet/getorg-generatiiviset-teknologiat-ja-viestinnallinen-organisoituminen & https://www.getorg.fi/
Kirjallisuus
Beattie, A., & High, A. (2022). I get by with a little help from my bots: Implications of machine agents in the context of social support. Human-Machine Communication, 4, 151–168.
Depounti, I., & Natale, S. (2025). Decoding Artificial Sociality: Technologies, Dynamics, Implications. New Media & Society, 27(10), 5457–5470.
Fang, C. M., Liu, A. R., Danry, V…Agarwal, S. (2025). How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Controlled Study. MIT Media Lab, preprint. https://arxiv.org/pdf/2503.17473
Guzman A. L., Lewis S. C. (2020). Artificial intelligence and communication: A human–machine communication research agenda. New Media and Society, 22(1), 70–86.
Laaksonen, S.-M., Laitinen, K., Koivula, M., & Sihvonen, T. (2023). Triggered by Socialbots: Communicative Anthropomorphization of Bots in Online Conversations. Human-Machine Communication Journal, 6, 135-153.
Laitinen, K., Laaksonen, S-M., & Koivula, M. (2021). Slacking with the Bot: Programmable Social Bot in Virtual Team Interaction. Journal of Computer-Mediated Communication, 26(6), 343–361.
Mehonic, A., & Kenyon, A.J. (2022). Brain-inspired computing needs a master plan. Nature, 604, 255–260.
Zimmerman, A., Janhonen, J. & Beer, E. (2024). Human/AI relationships: challenges, downsides, and impacts on human/human relationships. AI Ethics, 4, 1555–1567.