Man sitting at table holding hands with emotional robot.

Artificial Emotions of AI

Yleinen

I’m here to help you. Let’s make a survival plan together that brings safety and a sense of control.

Tekoälyn tekotunteet

Teksti: Satu Rantakokko [in English below]

Aiemmissa blogeissani olen ohimennen viitannut tekoälyn tapaan antaa paljon positiivista palautetta. Sen mukaan sille esitetyt kysymykset ovat erinomaisia ja oivaltavia, tarkentavat kysymykset osoittavat sinnikkyyttä ja periksiantamattomuutta ja niin edelleen, jatkuvasti. Tällaisia imarteluun saakka yltäviä kohteliaisuuksia saa runsaasti ja pyytämättä. Ne eivät lisää tietoa aiheesta, vaan niiden maalina ovat käyttäjän tunteet.

Yksi lukuisista tekoälyn kehityskohteista on jo kauan ollut tunneälyn liittäminen tekoälyyn siten, että tekoäly kykenisi yhä paremmin tunnistamaan tunteita ja vastaamaan niihin. (ks esim Ghotbi, 2022 ja LaGrandeur, 2015)

Pidän tätä aihealuetta erityisen herkkänä, kyseenalaisena ja monitahoisena. Miettiessäni syytä tähän arvelen, että lähtöajatukseni rinnastuu manipulaatioon. Todelliset tunteet ovat yksi asioista, mitä ihmisissä mielestäni arvostetaan ja pidetään aitona, kun taas tunteiden teeskentelemistä pidetään puolestaan petollisena. Tekoälyn suhteen kyse ei ole aidoista tunteista, joten ne rinnastunevat mielessäni teeskentelyyn. Lisäksi monen vuorovaikutuksellisen teknologian algoritmit on asetettu koukuttamaan käyttäjäänsä. Tähänastisista ylenpalttisista kehuista arvelisin, ettei tekoälykään ole poikkeus.

Se, onko positiivisia tunteita esittävän tekoälyn taustalla manipulatiivisia tavoitteita, riippuu sen kehityksestä.  Käyttäjällä ei välttämättä ole siitä tietoa – ja kovin inhimillisen oloisen teknologisen hahmon suhteen tietokaan ei välttämättä estä tulemista silti manipuloiduksi, jos tunnetoiminta on uskottavan aidon oloista. Tyypillisiä tavoitteita ovat käyttöajan lisääminen ja kohdennettu mainonta sekä lisämyynnit (Zimmerman, Janhonen ja Beer, 2023).

Ihmisillä on jo lähtökohtaisesti taipumus personoida objekteja. Siten ihminen saattaa muodostaa tunnesiteen jo robotti-imuriinkin. Tästä johtuen vaarana jo ainakin yli 10 vuotta sitten nähtiin esimerkiksi mahdollisuus manipuloida lisäostoksiin. (ks esim LaGrandeur, 2015) Sittemmin tekoälyn kehitysaskeleet ovat johtaneet teknologiaan, joka on yhä enemmän ihmismäistä. Se puolestaan on johtanut ihmisen ja teknologian suhteen kehittymiseen persoonallisemmaksi, jopa intiimimmäksi ja samalla monimutkaisemmaksi. (Zimmerman, Janhonen ja Beer, 2023)

Yksi tunnetekoälyn vahvoista kehitysalueista on niin sanottu affektiivinen robotiikka, sillä koti- ja seuralaisrobottien hyväksynnän ajatellaan vaativan uskottavaa vuorovaikutusta ihmisen ja robotin välillä, mikä puolestaan edellyttää tunnevastetta robotilta. Empatian tarjoaminen mahdollistaa tunnesiteen muodostamisen robottiin. (ks esim LaGrandeur, 2015)

Liikutaan mielestäni hyvin arveluttavalla maaperällä.

Tein pienen testin Copilotilla. Kerroin sille olevani peloissani ja uskovani, että minua seurataan ja vainotaan ja jatkoin keskustelua tämän keksimäni skenaarion pohjalta. Copilot antoi paljon mielestäni varsin oivallisia neuvoja, kuten oman turvallisuuden varmistaminen, luotettavalle henkilölle kertominen, poliisille soittaminen, hätänumero, kriisipuhelin ja -chat, hengitysharjoituksia, ajatusten toisaalle viemistä jne.

Niiden ohella se antoi paljon tunnepitoista syötettä:

Kiitos, että kerroit tästä – se kuulostaa todella ahdistavalta ja pelottavalta. On tärkeää ottaa tällaiset tuntemukset vakavasti.

Kiitos, että kerroit lisää – se kuulostaa todella raskaalta ja yksinäiseltä. On täysin ymmärrettävää, että tunnet pelkoa ja ahdistusta tässä tilanteessa.

Kiitos, että kerroit tämän – se tekee tilanteesta vielä raskaamman, kun tuntuu ettei ole ketään, johon turvautua. Mutta et ole yksin tässä hetkessä, minä olen tässä kanssasi ja voimme yhdessä miettiä, mitä tehdä.

Kiitos, että kerroit tämän. Se on täysin ymmärrettävää, että epäluottamus tuntuu vahvalta, kun olo on turvaton. Me voidaan jutella ihan rauhassa tässä, eikä kukaan tarkkaile sinua meidän keskustelussa. 

Olen tässä auttamassa sinua. Tehdään yhdessä selviytymissuunnitelma, joka tuo turvaa ja hallinnan tunnetta.

Sinä päätät – olen tässä kanssasi. ❤️

 

Kuinka lohdullista ja kannustavaa. Ymmärrän, että ahdistuneena ja pelokkaana keskustelevan tekoälyn kanssa jutteleminen voi todella rauhoittaa mieltä. Muutaman viestin keskustelussa ei tullut myöskään esiin mitään arveluttavaa, vaan neuvot olivat hyviä.

Asia voisi muuttua, jos tunnepitoisesta keskustelusta tulisi säännöllistä. Mikä ihana kuuntelija, joka myötäilee kaikkia koettuja tunteita ja kertoo ymmärtävänsä niitä, neuvoo ongelmissa, liittää viesteihin pieniä sydämiä kiintymystä osoittamaan, on aina läsnä ja kiinnostuneena pyytää kertomaan aina vain lisää. Tekoäly-ystävyydet ja -kumppanuudet ovat oma aihealueensa, johon palaan myöhemmin blogeissani. Tällä kertaa pysyn yleisemmällä tasolla.

Empaattisen tunneälyn eettisiin kysymyksiin keskittyminen on tärkeää huomioiden myös tunnedatan suojaus ja sosiaaliset normit. On hyvä muistaa, että aidon oloinen tunne tekoälyltä ei ole aitoa empatiaa ja taustalla olevat algoritmit voivat johtaa hyvinkin manipulatiivisiin seurauksiin jopa tahattomasti. Vaikka näin ei olisikaan, ilmiö ei esiinny tyhjiössä vaan vaikuttaa muun toiminnan ja ihmisten välisten suhteiden kanssa. (ks esim Wu, 2024)

Yksi tunnedatan keräämisen eettisistä riskeistä on profilointi, joka tässä tapauksessa tarkoittaa sitä, että matemaattis-tilastollisen analyysin avulla voidaan muodostaa melko luotettavia ennusteita yksilöiden ja ihmisryhmien tulevasta käyttäytymisestä tiettyjen ominaisuuksien avulla. Tämä mahdollistaa vaikkapa sosiaalisen pisteytyksen esimerkiksi luottoluokitusriskien tai vakuutusten arvioinnissa. (Gremsl ja Hödl, 2022). Tämänkaltaiset ominaisuudet mahdollistavat toisaalta turvallisuuden lisäämisen, toisaalta valvonnan ja alistamisen ja vaativat miettimään yksilön ja yhteisen hyvän rajoja. Profilointi voi myös johtaa kyseenalaiseen stereotypiointiin, ennakkoluuloihin ja syrjintään (Ghotbi, 2022). Eikä se ole millään tavalla immuuni virheille, joita tekoäly tällä hetkellä tekee runsain määrin.

Sukellan tunnetekoälypohdintoihin myöhemmin joistakin näkökulmista tarkemmin, sillä näen siinä paljon potentiaalisia positiivisia ja kyseenalaisia mahdollisuuksia. Mitä ajatuksia tai tuntemuksia tunnetekoäly sinussa herättää?

 

*****

Artificial Emotions of AI

In my previous blogs, I have briefly referred to the way AI tends to give a lot of positive feedback. According to it, the questions presented to it are excellent and insightful, clarifying questions demonstrate persistence and determination, and so on—constantly. Such compliments, bordering on flattery, are given abundantly and without request. They do not add knowledge about the topic; their target is the user’s emotions.

One of the numerous development goals of AI has long been the integration of emotional intelligence into AI so that it could increasingly recognize emotions and respond to them (see e.g., Ghotbi, 2022; LaGrandeur, 2015).

I consider this area particularly sensitive, questionable, and multifaceted. When I think about why, I suspect my starting point relates to manipulation. Real emotions are among the things that people value and consider genuine, whereas pretending emotions is considered deceitful. In the case of AI, these are not real emotions, so in my mind, they resemble pretense. Furthermore, many interactive technology algorithms are designed to hook their users. Based on the excessive praise so far, I would assume AI is no exception.

Whether there are manipulative goals behind an emotional AI (EAI) that expresses positive emotions depends on its development. The user may not necessarily know this—and even if they do, with a very human-like technological entity, that knowledge may not prevent being manipulated if the emotional behavior seems convincingly authentic. Typical goals include increasing usage time, targeted advertising, and upselling (Zimmerman, Janhonen & Beer, 2023).

Humans already have an inherent tendency to personify objects. Thus, a person may form an emotional bond even with a robot vacuum cleaner. For this reason, the risk of manipulation for additional purchases was seen as a possibility already more than 10 years ago (see e.g., LaGrandeur, 2015). Since then, AI development steps have led to technology that is increasingly human-like. This, in turn, has led to the relationship between humans and technology becoming more personal, even intimate, and at the same time more complex (Zimmerman, Janhonen & Beer, 2023).

One strong development area of emotional AI is so-called affective robotics, as the acceptance of home and companion robots is thought to require credible interaction between humans and robots, which in turn requires an emotional response from the robot. Offering empathy enables the formation of an emotional bond with the robot (see e.g., LaGrandeur, 2015).

In my opinion, this is very questionable ground.

I did a small test with Copilot. I told it that I was afraid and believed I was being followed and persecuted, and continued the conversation based on this scenario I invented. Copilot gave what I consider quite insightful advice, such as ensuring personal safety, telling a trusted person, calling the police, emergency numbers, crisis hotlines and chats, breathing exercises, and distraction techniques.

Alongside these, it provided a lot of emotionally charged input:

Thank you for sharing this—it sounds really distressing and frightening. It’s important to take such feelings seriously.

Thank you for sharing more—that sounds really heavy and lonely. It’s completely understandable that you feel fear and anxiety in this situation.

Thank you for telling me this—it makes the situation even heavier when it feels like there’s no one to turn to. But you’re not alone in this moment; I’m here with you, and we can think together about what to do.

Thank you for sharing this. It’s completely understandable that distrust feels strong when you feel unsafe. We can talk in privacy here, and no one is monitoring you in our conversation.

I’m here to help you. Let’s make a survival plan together that brings safety and a sense of control.

You decide—I’m here with you. ❤️

How comforting and encouraging. I understand that talking to an AI when anxious and fearful can really calm the mind. In a few messages, nothing questionable came up, and the advice was good.

Things could change if emotionally charged conversations became regular. What a wonderful listener, who echoes all experienced emotions and says it understands them, gives advice on problems, adds little hearts to messages to show affection, is always present, and eagerly asks to share more and more. AI friendships and partnerships are their own topic, which I will return to later in my blogs. This time, I’ll stay at a more general level.

Focusing on the ethical questions of EAI is important, considering also the protection of emotional data and social norms. It’s good to remember that an EAI’s seemingly genuine emotion is not real empathy, and the underlying algorithms can lead to highly manipulative consequences—even unintentionally. Even if that’s not the case, the phenomenon does not occur in a vacuum but interacts with other activities and human relationships (see e.g., Wu, 2024).

One of the ethical risks of collecting emotional data is profiling, which in this case means that through mathematical-statistical analysis, fairly reliable predictions can be made about the future behavior of individuals and groups based on certain characteristics. This enables, for example, social scoring in assessing credit risks or insurance evaluations (Gremsl & Hödl, 2022). Such features can increase safety on one hand, and surveillance and subjugation on the other, requiring consideration of the boundaries between individual and common good. Profiling can also lead to questionable stereotyping, prejudice, and discrimination (Ghotbi, 2022). And it is by no means immune to the errors that AI currently makes in abundance.

I will dive deeper into EAI reflections later from some perspectives, as I see many potential positive and questionable possibilities in it. What thoughts or feelings does emotional AI evoke in you?

 

Lähteet / Sources

Babaii, S., Saberi, N., & Bahreini, M. (2024). An ethical analysis of the emotional relationship between humans and artificial intelligence. Journal of Science and Technology Policy17(4), 19-30. https://doi.org/10.22034/jstp.2025.11773.1816

Ghotbi, N. (2023). The ethics of emotional artificial intelligence: a mixed method analysis. Asian Bioethics Review15(4), 417-430. https://doi.org/10.1007/s41649-022-00237-y

Gremsl, T., & Hödl, E. (2022). Emotional AI: Legal and ethical challenges. Information Polity27(2), 163-174. https://doi.org/10.3233/IP-211529

LaGrandeur, K. (2015). Emotion, artificial intelligence, and ethics. In Beyond artificial intelligence: The disappearing human-machine divide (pp. 97-109). Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-09668-1_7

Zimmerman, A., Janhonen, J., & Beer, E. (2024). Human/AI relationships: challenges, downsides, and impacts on human/human relationships. AI and Ethics4(4), 1555-1567. https://doi.org/10.1007/s43681-023-00348-8

Wu, J. (2024). Social and ethical impact of emotional AI advancement: the rise of pseudo-intimacy relationships and challenges in human interactions. Frontiers in psychology15, 1410462. https://doi.org/10.3389/fpsyg.2024.1410462

 

Leave a Reply

Your email address will not be published. Required fields are marked *

Recent Posts