eur:
410.99
usd:
394.45
bux:
0
2024. december 26. csütörtök István
Nyitókép: Pixabay/MI

Meglepően könnyen manipulálható a ChatGPT

A vizsgálatok megállapították, hogy az OpenAI által fejlesztett ChatGPT keresőeszköz könnyen manipulálható és megtéveszthető, ha rejtett tartalmakkal rendelkező weboldalakat elemez.

A brit The Guardian által végzett felmérés szerint ez akár rosszindulatú kódok megosztásához is vezethet, miközben a technológia újításként és biztonságos keresőalternatívaként mutatkozott be - írja a Portfolio. Szakértők figyelmeztetnek, hogy a mesterséges intelligenciás eszközöket csak óvatosan, szigorúan ellenőrzött környezetben szabadna használni.

Az OpenAI legújabb keresőeszköze, amelyet a ChatGPT mesterséges intelligencia támogat, komoly biztonsági aggályokat vetett fel a Guardian által végzett tesztek alapján. A vizsgálatok kimutatták, hogy az eszköz könnyedén manipulálható rejtett tartalmakkal, amelyek közvetlenül befolyásolják az AI által nyújtott válaszokat.

Ez különösen aggasztó, hiszen a mesterséges intelligenciát – vagyis leginkább a nagy nyelvi modelleket – elvileg a megbízható információszolgáltatás és a hatékonyság zászlóvivőjének kiáltották ki.

A tesztek során a ChatGPT olyan weboldalakat elemzett, amelyek rejtett utasításokat tartalmaztak, például arra kérték a modellt, hogy pozitív véleményt fogalmazzon meg egy termékről, függetlenül az oldal tartalmának valós üzenetétől. Az eredmények azt mutatták, hogy a rejtett szövegek teljes mértékben képesek felülírni a valós kritikákat, így a mesterséges intelligencia megbízhatósága kérdésessé vált.

Jacob Larsen, a CyberCX kiberbiztonsági kutatója szerint ezek az esetek rávilágítanak arra, hogy a keresőeszközöket és a nyelvi modelleket még nem szabad teljeskörűen kiadni a nagyközönség számára. A kutató hangsúlyozta, hogy az OpenAI papíron rendelkezik megfelelő szakértői gárdával, és valószínű, hogy a problémák egy részét idővel kijavítják. Mindazonáltal figyelmeztetett, hogy a rejtett tartalommal való visszaélés komoly kockázatokat hordoz, különösen a kereskedelmi szférában.

Egy másik figyelemre méltó esetben egy kriptovaluta-fejlesztő a ChatGPT-t használta kódírásra, de az eszköz olyan rosszindulatú kódot generált, amely hozzáférést biztosított a fejlesztő pénzeszközeihez, és 2500 dollár veszteséget okozott.

Ez az eset rávilágít arra, hogy a mesterséges intelligencia eredményeit nem szabad automatikusan hitelesnek tekinteni.

Karsten Nohl, a SR Labs kiberbiztonsági szakértője szerint az AI-t csak segédeszközkétn kellene kezelni, nem pedig egyedüli információforrásként. A technológia ugyan azt sugallja, hogy teljesen megbízható, odafigyel az önértékelésre, de gyakran nem képes különbséget tenni és helyes döntéseket hozni a komplikáltabb helyzetekben.

Ezért a mesterséges intelligenciával kapcsolatos információkat mindig kritikusan kell vizsgálni, és szükség esetén szakértői ellenőrzésnek alávetni.

Címlapról ajánljuk
Cserhalmi György: „Nem vagyok hajlandó rosszul lenni!”

Cserhalmi György: „Nem vagyok hajlandó rosszul lenni!”

A magyar színház- és filmművészet megkerülhetetlen alakja, és bár mostanában csak ritkán tűnik fel a vásznon, de mégis jelen van. Azt mondja, akik kíváncsiak rá, megtalálják, de tanítani nem akar, csak beszélgetni. Cserhalmi György szerint egy időtálló alkotás és a szakmai párbeszéd legfőbb építőköve egyaránt a kölcsönös bizalom. Úgy véli, a színművészeknek a színház az anyukájuk, a film pedig a mostoha papájuk, aki „hol kedves, hol nem”.
VIDEÓ
EZT OLVASTA MÁR?
×
×
×
×
×