Több mesterségesintelligencia-szakértő aggodalmának adott hangot amiatt, hogy említették fejlesztési eredményeit az Élet Jövője Intézet (Future of Life Institute) nyílt levelében, amelyben az aláírók az AI-hoz kötődő fejlesztések azonnali felfüggesztését követelték.
A technológiai ipar vezető szereplői március 22-én nyílt levélben követelték a mesterséges intelligencia fejlesztésének azonnali felfüggesztését a vélt társadalmi kockázatok miatt. A dokumentum szerint a fejlesztőknek átmeneti, hat hónapos időre le kellene állítaniuk a munkájukat, az olyan eszközök betanítási folyamatát, amelyeknek a teljesítménye meghaladja az úgynevezett GPT-4-es rendszerét. A GPT-4 a Microsoft által támogatott OpenAI fejlesztővállalat legújabb, tanulásra képes modellje, amely emberi szintű teljesítményre képes számos szakmai és tudományos teljesítményértékelés alapján.
Az Élet Jövője Intézet (Future of Life Institute, FLI) által kiadott dokumentumot péntekig több mint 1800-an írták alá, köztük Elon Musk, a Twitter tulajdonosa, a Tesla cég alapítója, valamint Steve Wozniak, az Apple cég társalapítója. Az FLI-t jórészt Musk alapítványa finanszírozza.
A levélben tizenkét kutatást említettek a mesterséges intelligencia veszélyeinek alátámasztására. Az egyik idézett tanulmány társszerzője, Margaret Mitchell, aki korábban az etikus mesterséges intelligenciával kapcsolatos kutatásokat felügyelte a Google-nál, és jelenleg is etikai kérdésekkel foglalkozik a Hugging Face AI-cégnél, amiatt bírálta a levelet, mert nem tisztázták benne, mi számít a GPT-4-nél hatékonyabb teljesítménynek.
"Azzal, hogy sok megkérdőjelezhető ötletet elfogadottként kezel, a levél olyan, a mesterséges intelligencia által modellezett narratívákat ismertet, amelyek inkább az FLI támogatóinak kedveznek" - mutatott rá Mitchell.
Mitchell és kutatásának társszerzői - Timnit Gebru, Emily M. Bender és Angelina McMillan-Major - ezért nyilvános választ írtak a levélre, és ebben "félelemkeltéssel és a mesterséges intelligencia körüli felhajtás fokozásával" vádolják a szerzőket.
A kutatók szerint
"veszélyes, ha elvonjuk a figyelmünket a legfontosabb kérdésektől, a legközvetlenebb veszélyektől, és helyettük azzal foglalkozunk, hogy az AI milyen utópisztikus, szép jövőt, vagy épp ellenkezőleg, apokalipszist vizionál".
Egy másik idézett kutató, Shiri Dori-Hacohen elmondta: egyetért a levél bizonyos részeivel, de bírálta azt, ahogy idézték az ő kutatási eredményeit. Dori-Hacohen társszerzője volt egy tavaly kiadott tanulmánynak, amely azzal érvelt, hogy a mesterséges intelligencia széles körű alkalmazása már most komoly kockázatokkal jár, miután az AI-rendszerek befolyásolhatják a klímaváltozással, nukleáris háborúval vagy más egzisztenciális fenyegetésekkel kapcsolatos döntéshozatalt.
Az Élet Jövője Intézet elnöke, Max Tegmark megjegyezte: a mesterséges intelligencia rövid és hosszú távú kockázatait is komolyan kell venni. Hozzáfűzte: ha idéznek valakit, az mindössze annyit jelent, hogy az illető állítása alátámasztja a saját mondandót. Ez azonban nem jelenti annak állítását, hogy az illető támogatná a nyílt levelet, vagy egyetértene azzal, amit az intézet képvisel.