Infostart.hu
eur:
377.95
usd:
319.69
bux:
130030.34
2026. február 8. vasárnap Aranka
mesterséges intelligencia által készített kép
Nyitókép: Pixabay - mesterséges intelligencia által készített kép

Deepfake-veszély, így csapják be az AI-val a banki ügyfeleket

A mesterséges intelligencia (AI) új távlatokat nyit a banki csalások terén. Az AI segítségével a csalók hatásosabban alakíthatnak ki téves tudattartalmat az áldozatokban, ami sikeres csalásokhoz vezethet.

A penzcentrum.hu-nak az OTP szakértői erról beszéltek, hogy az AI lehetővé teszi a csalók számára, hogy alacsony költséggel hatalmas mennyiségű, kifinomult adathalász üzenetet és közösségi média profilt hozzanak létre, melyek áttörhetik a hagyományos védelmi rendszereket.

Ezek az üzenetek személyre szabottak lehetnek, nyilvános adatok felhasználásával vonzó "társadalmi mérnöki" csalit képezve.

Különösen a befektetési csalásoknál alkalmazzák ezt a módszert, ahol ismert emberek AI-generált hangjával vagy képével hirdetnek hamis befektetéseket.

A szakértők egyetértenek abban, hogy a régi védelmi módszerek nem elegendőek az új veszély elhárítására. Bár egyes bankok már integrálják az AI-t a védekezésbe, nincs tökéletes módszer a legmodernebb kibertámadások ellen. A hangsúly az ügyfelek folyamatos tájékoztatásán és pénzügyi tudatosságának növelésén van. Fontos a képek és videók kritikus vizsgálata, valamint a személyes online adatok minimalizálása.

A lapnak egy AI-szakjogász elmondta: a hagyományos intelligencia kapcsán részben generációs kérdésekről is beszélhetünk. Akik felnőttkorukban szembesültek a digitális világgal és tanulták meg kezelni a kütyüket, azok teljesen más tanulási metódus alapján, teljesen más tananyagokkal szembesültek és építették be a tudásanyagukba, mint a gyerekkoruktól már a digitális világban élők – húzta alá Kajó Cecília. Aki viszont gyerekkorától kezdve használta a digitális világot, és egészen fiatalon már készségszinten tudja, hogy kell például videókat készíteni, vágni, publikálni, követni ilyen oldalakat. Eleve nem tankönyvből, tanfolyamon, iskolában tanul meg dolgokat, hanem maga is Youtube oktatóvideókat néz, tehát nagyobb valószínűséggel ismerhet rá technikai oldalról a deepfake videóra, a mesterséges intelligencia által generált hamis tartalmakra.

A "józan paraszti ész" és az ingyenesen kipróbálható AI-alkalmazások megismerése segíthet a deepfake tartalmak felismerésében (például furcsa bőrfénnyel vagy szögletes mozgással).

Ami kiemelendő, hogy az AI-val megtévesztett ügyfelek maguk indítják a kárukat okozó tranzakciókat, ami megnehezíti a bankok számára a csalás felismerését.

A lap még emlékezetet arra is, hogy 2025 júliusától élesedik a GIRO Zrt. Központi Visszaélésszűrő Rendszere (KVR), egy új, AI-alapú védelmi vonal az utalásoknál. Ez a rendszer a szokatlan fizetési mintázatokat figyeli és jelzi a bankoknak.

Címlapról ajánljuk

Repülőn vitték vissza Oroszországba a moszkvai merénylőt

Az orosz Szövetségi Biztonsági Szolgálat (FSZB) bejelentette, hogy az Egyesült Arab Emírségek kiadta Oroszországnak a 66 éves Ljubomir Korbát, akit Vlagyimir Alekszejev altábornagy elleni merénylettel gyanúsítanak. Az orosz katonai hírszerzés helyettes vezetője elleni támadás február 6-án történt egy moszkvai lakóházban.
inforadio
ARÉNA
2026.02.09. hétfő, 18:00
Salát Gergely
sinológus, a Pázmány Péter Katolikus Egyetem és a Magyar Külügyi Intézet munkatársa
Brutális orosz dróneső zúdult  Zaporizzsjára – Ukrajnai háborús híreink vasárnap

Brutális orosz dróneső zúdult Zaporizzsjára – Ukrajnai háborús híreink vasárnap

Zajlanak a háromoldalú tárgyalások az Egyesült Államok, Oroszország és Ukrajna között, Volodimir Zelenszkij ukrán elnök azonban aggodalmait fejezte ki annak kapcsán, hogy szerinte titokban, Kijev kihagyásával születhet megállapodás a háború ügyében. Ukrajna Neptun rakétákkal támadta az orosz infrastruktúrát, miközben Oroszország az éjszaka folyamán csaknem 300 drónt lőtt ki Zaporizzsja területére. Oroszország bejelentette: elfogták a férfit, akit a Vlagyimir Alekszejev tábornok elleni merénylettel gyanúsítanak.

EZT OLVASTA MÁR?
×
×
×
×
×