A Cloud AI segített bombázni Iránt. De hogyan is pontosan?

Ugyanazokat a mesterséges intelligencia modelleket, amelyek segítségével marketinges e-maileket készíthet vagy gyors vacsorareceptet készíthet, Irán megtámadására is használták. A Wall Street Journal jelentése szerint az Egyesült Államok Központi Parancsnoksága az Anthropic felhőalapú mesterséges intelligenciáját használta „intelligenciaértékelésre, célpont azonosításra és harci forgatókönyvek szimulálására” az ország elleni támadások során.

Órákkal korábban Donald Trump elnök utasította a szövetségi ügynökségeket, hogy hagyják abba a felhő használatát, miután vitát folytattak az alkotójával, de az eszköz olyan mélyen beékelődött a Pentagon rendszereibe, hogy hónapokig tartó leszerelése egy megfelelőbb rivális javára. A Nicolas Maduro elfogásához vezető januári hadműveletben is használták.

De mit jelent a gyakorlatban az „intelligenciaértékelés” és a „célpont azonosítás”? Vajon Claude kijelölte a támadás helyszíneit, vagy megbecsülte az áldozatok számát? Ezt senki nem hozta nyilvánosságra, és az aggasztó, hogy erre senkinek nincs kötelezettsége.

A mesterséges intelligenciát régóta használják a hadviselésben olyan dolgokra, mint a műholdképek elemzése, a kiberfenyegetések észlelése és a rakétavédelmi rendszerek irányítása. De a chatbotokat – ugyanazt a mögöttes technológiát, amelyet emberek milliárdjai használnak olyan hétköznapi feladatokhoz, mint például az e-mailek írása – ma már a csatatéren használják.

Tavaly novemberben az Anthropic együttműködött a Palantir Technologies Inc.-vel, egy adatelemző céggel, amely sokat dolgozik a Pentagonért, hogy nagy nyelvi modellfelhőjét a katonaság döntéstámogató rendszereinek érvelési motorjává alakítsa.

Januárban aztán az Anthropic 100 millió dolláros javaslatot nyújtott be a Pentagonnak, hogy fejlesszenek ki hangvezérlésű, autonóm drónrajzoló technológiát – számolt be a Bloomberg News. A cég bemutatása: Használja a felhőt, hogy a parancsnok szándékát digitális utasításokká alakítsa át a drónflotta koordinálásához.

Az ajánlatot elutasították, de a verseny többre volt szükség, mint a titkosszolgálati jelentések összefoglalóira, ahogyan azt egy chatbottól elvárhatnánk. A szerződés a potenciálisan halálos drónrajok „céllal kapcsolatos tudatosságának és megosztásának” és „elindításának megszüntetéséig” fejlesztéséről szólt.

senki földje

Figyelemre méltó, hogy mindez szabályozási vákuumban és olyan technológiával történik, amelyről ismert, hogy hibákat követ el. A nagy nyelvi modellek hallucinációi a képzésük eredménye, amikor a válasz megértését jutalmazzák, nem pedig a bizonytalanság elfogadásáért. Egyes tudósok szerint az AI konfabuláció állandó kihívása soha nem oldható meg.

Nem ez lenne az első alkalom, hogy megbízhatatlan mesterséges intelligencia rendszereket használnak háborúban. A Lavender egy mesterséges intelligencia által működtetett adatbázis volt, amelyet a Hamászhoz köthető katonai célpontok azonosítására használtak Gázában. Ez nem egy nagy nyelvi modell volt, hanem nagy mennyiségű megfigyelési adatot elemzett, mint például a társadalmi kapcsolatok és a helyelőzmények, hogy minden személynek 1-től 100-ig terjedjen a pontszáma. Ha valakinek a pontszáma áthaladt egy bizonyos küszöböt, a Levendula katonai célpontként jelölte meg.

A probléma az volt, hogy a Levendula az esetek 10%-ában tévedett az izraeli-palesztin +972 irat által közzétett vizsgálati jelentés szerint. „Körülbelül 3600 embert vettek célba tévedésből” – mondta nekem Mariarosaria Taddeo, az Oxford Internet Institute digitális etika és védelmi technológia professzora.

„Ezek a rendszerek hihetetlen sebezhetőségekkel és rendkívüli megbízhatatlansággal rendelkeznek olyan dinamikus, érzékeny és emberi dolgokban, mint a háború” – mondja Elke Schwarz, a londoni Queen Mary Egyetem politikaelméleti professzora és a Death Machines: The Ethics of Violent Technologies című könyv szerzője.

Schwarz rámutat, hogy a mesterséges intelligencia gyakran a harc felgyorsítására szolgál, ami a nem kívánt következmények receptje. A gyorsabb döntések nagyobb léptékben és kevesebb emberi ellenőrzés mellett születnek. Az AI katonai felhasználása az elmúlt másfél évtizedben még átláthatatlanabbá vált, mondja.

És még a háborús alkalmazások előtt is titkolózott az AI-laborok működése. Ezek a vállalatok nem hajlandók nyilvánosságra hozni, hogy modelljeik milyen adatokkal készültek, vagy hogy rendszereik hogyan jutnak következtetésekre.

Természetesen a katonai műveleteket gyakran titokban kell tartani, hogy megvédjék a harcosokat, és ne vegyék észre az ellenséget. A védelmet azonban erősen szabályozzák a nemzetközi humanitárius jog és a fegyvertesztelési szabványok, amelyeknek elméletileg a mesterséges intelligencia használatát is figyelembe kellene venniük. Az ilyen szabványok azonban hiányoznak, vagy súlyosan nem megfelelőek.

a szabályok elavultak

Taddeo megjegyezte, hogy a genfi ​​egyezmények 36. cikke előírja, hogy az új fegyverrendszereket bevetés előtt tesztelni kell, de a környezetéből tanuló AI-rendszer minden frissítéskor új rendszerré válik. Ez szinte lehetetlenné teszi a szabályok betartatását.

Egy ideális világban az olyan kormányok, mint az Egyesült Államok, nyilvánosságra hozzák, hogyan használják ezeket a rendszereket a csatatéren, és precedenst teremtenek. Az amerikaiak szeptember 11-e után kezdték el használni a fegyveres drónokat, és kiterjesztették alkalmazásukat a Barack Obama-kormány idején, és nem voltak hajlandók elismerni, hogy ilyen program létezik.

Közel 15 évbe telt a kiszivárgott dokumentumok, a folyamatos sajtónyomás és az Amerikai Polgári Jogok Uniója által indított perek, mire az Obama Fehér Ház 2016-ban végre közzétette a dróntámadások áldozatainak adatait. Ezeket széles körben alulszámlálásnak tartották, de lehetővé tették a közvélemény, a Kongresszus és a média számára, hogy először felelősségre vonják a kormányt.

A mesterséges intelligencia felügyelete még szigorúbb lesz, és még nagyobb nyilvános és törvényhozói nyomásra lesz szükség ahhoz, hogy az ellenszegülő Trump-adminisztrációt hasonló jelentési keret létrehozására kényszerítsék.

Schwarz szerint nem az lenne a cél, hogy felfedjük, hogyan használták fel a felhőt az Epic Fury-hadművelethez hasonló műveletekben, hanem egy átfogó vázlat közzététele. És különösen, hogy felfedje, ha valami elromlik.

Az antropocentrikus-Pentagon vitákról – arról, hogy mi a legális és etikus a mesterséges intelligencia számára, ha az amerikaiak tömeges megfigyeléséről vagy teljesen autonóm fegyverek létrehozásáról van szó – folyó nyilvános vitából hiányzik az a nagyobb kérdés, hogy nem látható, hogy a technológiát miként használják már a hadviselésben. Az ilyen új és használaton kívüli rendszerekben előfordulhatnak hibák, ezért ez rendkívül szükséges. „Társadalomként nem döntöttünk úgy, hogy bármilyen problémánk van egy géppel, amely eldönti, meg kell-e ölni egy embert vagy sem” – mondja Taddeo.

Fontos ragaszkodni ehhez az átláthatósághoz, mielőtt a mesterséges intelligencia olyan rutinná válik a harcban, hogy senkinek eszébe sem jut megkérdezni. Ellenkező esetben előfordulhat, hogy egy katasztrofális hiba elkövetésére várunk, és csak a kár bekövetkezése után fogjuk megvalósítani az átláthatóságot.

Parmy Olson a Bloomberg Opinion rovatvezetője, aki a technológiával foglalkozik. A Wall Street Journal és a Forbes egykori riportere, a „Supremacy: AI, ChatGPT and the Race That Will Change the World” szerzője. ©2026 Bloomberg LP Látogassa meg a bloomberg.com/opinion webhelyet. Terjeszti: Tribune Content Agency.


Megjelenési Dátum: 2026-03-07 10:15:01

Forráslink: www.mercurynews.com