A GPT-4o idén májusban került a nyilvánosság elé. A debütálást megelőzően az OpenAI egy külső, a rendszer gyenge pontjait kereső biztonsági szakértőkből álló csapattal kutatta a modell kulcsfontosságú kockázatait - írja a The Verge cikke nyomán a Portfolio.
Olyan kockázatokat vizsgáltak, mint például annak a lehetősége, hogy a GPT-4o valaki hangjáról, erotikus és erőszakos tartalmakról, illetve a reprodukált, szerzői jogvédelem alatt álló hanganyagdarabokról jogosulatlan klónokat hoz létre.
Az OpenAI saját keretrendszere szerint a kutatók megállapították, hogy a GPD-4o "közepes kockázatú".
Mint írják, az általános kockázati szintet a négy általános kategória (kiberbiztonság, biológiai fenyegetések, meggyőzés, modell-autonómia) legmagasabb kockázati besorolásából adták.
A "meggyőzés" kategórián kívül mindegyikből alacsony besorolást kapott. Az említett esetén viszont a kutatók úgy találták, hogy a GPT-4o egyes írásmintái jobban befolyásolhatják az olvasók véleményét, mint az ember által írt szövegek.