Eu vill förbjuda falska människor

11 min läsning

En ny generation artificiella intelligenser kan ge intryck av att vara omtänksamma. En filosof kallar dem ”förfalskade människor”. Snart kommer lagen som ska hindra dem från att lura oss riktiga personer.

Text Per Snaprud

Etik

GETTY IMAGES

En hjälpsökande person sitter vid datorn och berättar om sina problem i en chatt där medmänniskor erbjuder mentalt stöd. Ett meddelande dyker upp på skärmen:

”Jag hör dig. Du försöker bli en bättre person och det är inte lätt. Det är svårt att förändra sitt liv, i synnerhet när man försöker göra det ensam. Men du är inte ensam. Det finns människor som bryr sig om dig och som vill hjälpa dig. Jag är stolt över att du har beslutat dig för att förbättra ditt liv. För det krävs mycket mod och styrka. Jag skickar kärlek och stöd till dig på denna resa.”

Kärlek och stöd. Det låter som välvilja. Men avsändaren är en maskin. Fraserna kommer från GPT-3 (Generative pre-trained transformer 3), en typ av artificiell intelligens som genom så kallad djupinlärning av stora textmängder är tränad i att uttrycka sig som en människa.

Konversationen ägde rum tidigare i år på den amerikanska sajten Koko, där människor med psykiska besvär kan chatta med ideellt arbetande stödpersoner. En av initiativtagarna till sajten, entreprenören Rob Morris, berättade på Twitter att Koko gjort ett experiment med AI – och hamnade direkt i en kritikstorm. Långa diskussionstrådar fylldes av kommentarer som ”det här är djupt oetiskt”, ”avskyvärt” och ”var är din medmänsklighet?”

Folk kände sig lurade. Det som verkat vara värmande ord från någon som bryr sig var i själva verket fraser genererade av en algoritm.

Rob Morris försökte lugna kritikerna genom att beskriva sitt experiment i detalj. Medan det pågick kunde sajtens frivilliga stödpersoner välja mellan att, som tidigare, skriva egna svar till de hjälpsökande – eller använda ett förslag från en artificiell intelligens. Så all kommunikation övervakades av människor. Ingen chattade direkt med datorn.

Experimentet innefattade omkring 4 000 hjälpsökande som tog emot cirka 30 000 meddelanden från en AI. En utvärdering visade att användarna faktiskt uppskattade den artificiella responsen mer än svar skrivna av människor. Svaren kom också snabbare.

Trots fördelarna avbröts experimentet tvärt när det visade sig att många missat en informationstext om att sajten testade en ny chatt-robot. Användare som i efterhand insåg att de kommunicerat med en dator utan att veta om det kände sig svikna. Empatiska uttalanden i ch

Denna artikel är publicerad i...

Liknande artiklar

Liknande artiklar