En ny tvärvetenskaplig studie av forskare från Washington University i St. Louis har avslöjat ett oväntat psykologiskt fenomen i skärningspunkten mellan mänskligt beteende och artificiell intelligens: När deltagarna fick veta att de tränade AI för att spela ett förhandlingsspel, anpassade de aktivt sitt eget beteende för att framstå som mer rättvist och rättvist, en impuls med potentiellt viktiga konsekvenser för AI-utvecklare i den verkliga världen.
”Deltagarna verkade ha en motivation att träna AI för rättvisa, vilket är uppmuntrande, men andra människor kan ha olika agendor”, säger Lauren Treiman, doktorand i Division of Computational and Data Sciences och huvudförfattare till studien. ”Utvecklare bör veta att människor avsiktligt kommer att ändra sitt beteende när de vet att det kommer att användas för att träna AI.”
Studien publiceras i Proceedings of the National Academy of Sciences. Medförfattarna är Wouter Kool, biträdande professor i psykologi och hjärnvetenskap vid Arts & Sciences, och Chien-Ju Ho, biträdande professor i datavetenskap och teknik vid McKelvey School of Engineering. Kool och Ho är Treimans doktorandrådgivare.
Studien omfattade fem experiment, vart och ett med cirka 200-300 deltagare. Försökspersonerna ombads att spela ”Ultimatum Game”, en utmaning som kräver att de förhandlar om små kontantutbetalningar (bara 1 till 6 dollar) med andra mänskliga spelare eller en dator. I vissa fall fick de veta att deras beslut skulle användas för att lära en AI-bot hur man spelar spelet.
De spelare som trodde att de tränade AI var konsekvent mer benägna att söka en rättvis andel av utbetalningen, även om sådan rättvisa kostade dem några dollar. Intressant nog kvarstod denna beteendeförändring även efter att de fått veta att deras beslut inte längre användes för att träna AI, vilket tyder på att upplevelsen av att forma teknik hade en bestående inverkan på beslutsfattandet.
”Som kognitionsforskare är vi intresserade av vanebildning”, säger Kool. ”Det här är ett häftigt exempel eftersom beteendet fortsatte även när det inte längre behövdes.”
Impulsen bakom beteendet är dock inte helt klar. Forskarna frågade inte om specifika motivationer och strategier, och Kool förklarade att deltagarna kanske inte kände en stark skyldighet att göra AI mer etisk. Det är möjligt, sa han, att experimentet helt enkelt tog fram deras naturliga tendenser att avvisa erbjudanden som verkade orättvisa.
”De kanske inte riktigt tänker på de framtida konsekvenserna”, sa han. ”De kanske bara tar den enkla vägen ut.”
”Studien understryker det viktiga mänskliga elementet i träningen av AI”, säger Ho, en datavetare som studerar förhållandet mellan mänskliga beteenden och algoritmer för maskininlärning. ”En stor del av AI-utbildningen baseras på mänskliga beslut”, säger han. ”Om man inte tar hänsyn till mänskliga fördomar under AI-träningen kommer den resulterande AI:n också att vara partisk. Under de senaste åren har vi sett många problem som uppstått på grund av den här typen av bristande överensstämmelse mellan AI-utbildning och användning.”
Vissa program för ansiktsigenkänning är t .ex. mindre bra på att identifiera mörkhyade personer, säger Ho. ”Det beror delvis på att de data som används för att träna AI är partiska och icke-representativa”, säger han.
Treiman genomför nu uppföljande experiment för att få en bättre uppfattning om motivationen och strategierna hos de personer som utbildar AI. ”Det är mycket viktigt att ta hänsyn till de psykologiska aspekterna av datavetenskap”, säger hon.
För mer information: Lauren S. Treiman et al, The consequences of AI training on human decision-making, Proceedings of the National Academy of Sciences (2024) . DOI: 10.1073/pnas.2408731121