Kan vi verkligen lita på att AI fattar bättre beslut än människor? En ny studie säger … inte alltid. Forskare har upptäckt att OpenAI:s ChatGPT, en av de mest avancerade och populära AI-modellerna, gör samma typer av beslutsmisstag som människor i vissa situationer – och uppvisar fördomar som övertro eller ”hot-hand” (gambler’s) fallacy – men beter sig omänskligt i andra (t.ex. lider inte av ”base-rate neglect” eller ”sunk cost fallacies”).
Studien, som publicerades i tidskriften Manufacturing & Service Operations Management, visar att ChatGPT inte bara räknar siffror – den ”tänker” på ett sätt som är kusligt likt människans, inklusive mentala genvägar och blinda fläckar. Dessa fördomar förblir ganska stabila i olika affärssituationer, men kan förändras i takt med att AI utvecklas från en version till en annan.
AI: En smart assistent med människoliknande brister
Studien ”A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?” utsattes ChatGPT för 18 olika tester av partiskhet. Resultaten?
- AI faller i mänskliga beslutsfällor – ChatGPT visade fördomar som övertro eller tvetydighetsaversion och konjunktionsfel (även känt som ”Linda-problemet”) i nästan hälften av testerna.
- AI är bra på matematik, men har svårt för bedömningar – AI är utmärkt på logiska och sannolikhetsbaserade problem, men snubblar när besluten kräver subjektiva resonemang.
- Bias försvinner inte – Även om den nyare GPT-4-modellen är mer analytiskt korrekt än sin föregångare, visade den ibland starkare bias i bedömningsbaserade uppgifter.
Varför detta är viktigt
AI formar redan viktiga beslut inom näringsliv och myndigheter, från anställning till lånegodkännanden. Men om AI efterliknar mänskliga fördomar, kan det då förstärka dåliga beslut i stället för att åtgärda dem?
”När AI lär sig av mänsklig data kan den också tänka som en människa – med fördomar och allt”, säger Yang Chen, huvudförfattare och biträdande professor vid Western University. ”Vår forskning visar att när AI används för att göra bedömningar använder den ibland samma mentala genvägar som människor.”
Studien fann att ChatGPT tenderar att:
- Ta det säkra före det osäkra – AI undviker risker, även när mer riskfyllda val kan ge bättre resultat.
- Överskatta sig själv – ChatGPT antar att det är mer exakt än det verkligen är.
- Söka bekräftelse – AI föredrar information som stöder befintliga antaganden, snarare än att utmana dem.
- Undvik tvetydighet – AI föredrar alternativ med mer säker information och mindre tvetydighet.
”När det finns ett tydligt rätt svar på ett beslut är AI bäst – det är bättre på att hitta rätt formel än vad de flesta människor är”, säger Anton Ovchinnikov vid Queen’s University. ”Men när det handlar om bedömning kan AI falla i samma kognitiva fällor som människor.”
Så kan vi lita på att AI fattar stora beslut?
Med regeringar över hela världen som arbetar med AI-regleringar väcker studien en brådskande fråga: Ska vi lita på att AI fattar viktiga beslut när den kan vara lika partisk som människor?
”AI är inte en neutral domare”, säger Samuel Kirshner vid UNSW Business School. ”Om det inte kontrolleras kan det hända att det inte löser problem med beslutsfattande – det kan faktiskt förvärra dem.”
Forskarna menar att det är därför som företag och beslutsfattare måste övervaka AI:s beslut lika noga som de skulle göra med en mänsklig beslutsfattare.
”AI bör behandlas som en anställd som fattar viktiga beslut- den behöver tillsyn och etiska riktlinjer”, säger Meena Andiappan från McMaster University. ”Annars riskerar vi att automatisera felaktigt tänkande i stället för att förbättra det.”
Vad är nästa steg?
Studiens författare rekommenderar regelbundna granskningar av AI-drivna beslut och förfining av AI-system för att minska fördomar. Med AI:s växande inflytande kommer det att vara viktigt att se till att det förbättrar beslutsfattandet – snarare än att bara replikera mänskliga brister.
”Utvecklingen från GPT-3.5 till 4.0 tyder på att de senaste modellerna blir mer mänskliga inom vissa områden, men mindre mänskliga men mer exakta inom andra”, säger Tracy Jenkin vid Queen’s University. ”Cheferna måste utvärdera hur olika modeller presterar i deras beslutsfattande användningsfall och regelbundet omvärdera dem för att undvika överraskningar. Vissa användningsområden kommer att kräva betydande modellförfining.”
För mer information: Yang Chen et al, A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?”, Manufacturing & Service Operations Management (2025). DOI: 10.1287/msom.2023.0279