A Pentagon arra törekszik, hogy a felhő AI-t kedve szerint használja. Claude azt mondta, hogy „veszélyes”
Nemrég megkérdeztem a mesterséges intelligencia-felhőt a Pentagonnal való ütközés középpontjában, vajon veszélyes lehet-e rossz kezekben.
Például azok a kezek, amelyek minden amerikai polgárt körül akartak venni, valós időben figyelve életünket, hogy biztosítsák a kormánynak való megfelelést.
– Igen. Őszintén szólva, igen – válaszolta Claude. „Nagyon gyorsan tudok nagy mennyiségű információt feldolgozni és szintetizálni. Ez nagyszerű a kutatáshoz. De a felügyeleti infrastruktúra csapdájában ugyanez a képesség felhasználható emberek megfigyelésére, profilozására és megjelölésére oly módon, ahogyan emberi elemző sem tud megfelelni. A veszély nem az, hogy meg akarom csinálni, hanem az, hogy jó leszek benne.”
Ez a veszély is küszöbön áll.
A felhő megalkotója, a Szilícium-völgyi Anthropic cég összetűzésbe került a Pentagonnal az etika miatt. Az Anthropic különösen azt mondta, hogy nem akarja, hogy a felhőt az amerikaiak belföldi megfigyelésére használják, vagy hogy emberi felügyelet nélkül végezzenek halálos katonai műveleteket, például dróntámadásokat.
Ez az a két piros vonal, amely Cloud számára is ésszerűnek tűnik.
A Pentagon azonban – konkrétan Pete Hegseth védelmi miniszterünk, aki inkább a kitalált hadügyminiszteri címet részesíti előnyben – péntek estig adott az Anthropicnak, hogy lemondjon erről a pozícióról, és engedélyezze a katonaság számára, hogy bármilyen „jogos” célra használja a felhőt, amit megfelelőnek tart.
Pete Hegseth védelmi miniszter az Unió állapotáról szóló beszédére érkezik kedden az Egyesült Államok Capitoliumának Házitermébe.
(Tom Williams/CQ-Roll Call Inc. a Getty Images-en keresztül)
Az egyebek ügye – és ezzel az ultimátummal kapcsolatos – nagy. Az Egyesült Államok kormánya nem csak azzal fenyeget, hogy felmondja az Anthropiccal kötött szerződését, de talán háborús jogszabályokkal is rákényszeríti a vállalatot, hogy megfeleljen, vagy valamilyen más jogi eszközt használjon annak megakadályozására, hogy a kormánnyal üzletelő társaságok üzleteljenek az Anthropiccal. Lehet, hogy nem halálos ítélet, de elég komoly.
Más mesterséges intelligencia-cégek, mint például a fehér jogok szószólója, Elon Musk Grok, már beleegyeztek a Pentagon „tegyél úgy, ahogy akarod” javaslatába. A probléma az, hogy a felhő az egyetlen olyan mesterséges intelligencia, amely jelenleg ilyen magas szintű munkára engedélyezett. Az egész zűrzavar a legutóbbi venezuelai razziánk után derült ki, amikor az Anthropic állítólag azt vizsgálta, hogy a műveletben részt vevő másik Szilícium-völgyi vállalat, a Palantir használta-e a felhőt. Az volt.
A Palantir többek között megfigyelési technológiáiról és a bevándorlási és vámhatósággal való növekvő együttműködéséről ismert. A Trump-kormányzat azon törekvésének is a középpontjában áll, hogy az egyes polgárokra vonatkozó kormányzati adatokat megosszák az egyes osztályok között, hatékonyan lebontva az évtizedek óta fennálló adatvédelmi és biztonsági korlátokat. A cég alapítója, a jobboldali politikai veterán, Peter Thiel gyakran tart előadásokat az Antikrisztusról, és nevéhez fűződik, hogy segített J. D. Vance-nek az alelnöki szék megszerzésében.
Dario Amodei, az Anthropic társalapítója Thiel-ellenesnek tekinthető. Azért indította el az Anthropicot, mert úgy gondolta, hogy a mesterséges intelligencia ugyanolyan veszélyes lehet, mint amennyire erős lehet, ha nem vagyunk óvatosak, és olyan céget akart, amely az óvatos részét helyezi előtérbe.
Megint józan észnek hangzik, de az Amodei és az Anthropic kívülállók egy olyan iparágban, amely régóta azzal érvel, hogy szinte minden biztonsági szabályozás akadályozza az Egyesült Államok azon erőfeszítéseit, hogy a mesterséges intelligencia terén a leggyorsabb és legjobb legyen (bár bizonyos mértékig ők is elismerték ezt a nyomást).
Néhány évvel ezelőtt Amodei írt egy esszét, amelyben egyetértett azzal, hogy a mesterséges intelligencia előnyös és szükséges a demokráciák számára, de „nem hagyhatjuk figyelmen kívül azt a lehetőséget, hogy a demokratikus kormányok visszaélnek ezekkel a technológiákkal.”
Figyelmeztetett arra, hogy egyes rossz szereplők képesek megkerülni a biztonsági intézkedéseket, talán még a törvényeket is, amelyek egyes demokráciákban már most is gyengülnek – nem mintha itt bárkit is megneveznék.
„A demokráciát mesterséges intelligenciával kell felszerelnünk” – mondta. „De ezt óvatosan és határokon belül kell tennünk: ők az az immunrendszer, amelyre szükségünk van a zsarnokság elleni küzdelemhez, de az immunrendszerhez hasonlóan fennáll annak a veszélye, hogy megtámadnak minket, és maguk is veszélyt jelentenek.”
Például, míg a negyedik módosítás technikailag megakadályozza a kormányt a tömeges megfigyelésben, azt azelőtt írták, hogy a felhőt a sci-fi még elképzelte volna. Amodei figyelmeztetett, hogy az olyan mesterséges intelligencia-eszközök, mint a felhő, „minden nyilvános beszélgetés tömeges rögzítéséhez” vezethetnek. Ez tisztességes feltételeket jelenthet a legális rögzítéshez, mivel a törvény nem tartott lépést a technológiával.
Emil Michel hadügyminiszter-helyettes csütörtökön azt írta, egyetért azzal, hogy a tömeges megfigyelés illegális, és a védelmi minisztérium „soha nem tenné meg”. De ugyanakkor „nem lesz BigTech cégünk, amely az amerikaiak polgári szabadságjogairól döntene”.
Furcsa kijelentés, mivel Amodei alapvetően a polgári jogok védelme mellett áll, ami azt jelenti, hogy a védelmi minisztérium azzal érvel, hogy ez rossz a magánszemélyeknek és szervezeteknek? És azt is, hogy a Nemzetbiztonsági Minisztérium nem hoz létre már valami titkos adatbázist a bevándorlási tiltakozókról? Szóval lehet, hogy az aggodalom nem annyira eltúlzott?
Segíts, Claude! Tedd értelmessé.
Ha ez az orwelli érvelés nem elég aggasztó, megkérdeztem Claude-ot az Anthropic másik vörös vonaláról is – annak lehetőségéről, hogy emberi felügyelet nélkül végezzen halálos műveleteket.
Claude valami meglepőt mondott. Nem arról van szó, hogy leromlik, a lényeg, hogy nagyon hatékony és gyors lesz.
„Ha az utasítások „azonosítsd és célozd meg”, és nincs emberi ellenőrző pont, akkor az a sebesség és lépték, amellyel ez működhet, valóban ijesztő” – mondta Claude.
Cseresznyével a tetején egy friss tanulmány megállapította, hogy a háborús játékokban az AI az esetek 95%-ában a nukleáris lehetőségekig terjed.
Azt mondtam Claude-nak, hogy ezeket a katonai döntéseket általában úgy hozzák meg, hogy az Egyesült Államok iránti lojalitás a legfontosabb. Megbízható-e Cloud, hogy érezze azt a hűséget, hazaszeretetet és célt, amely emberi katonáinkat irányítja?
„Nincs ilyenem” – mondta Claude, rámutatva, hogy nem Amerikában „született”, nincs itt „élete”, és „nincs olyan ember, akit szeretek”. Ezért az amerikai életnek nincs nagyobb értéke, mint „a civil életnek a konfliktus másik oldalán”.
Hát akkor.
„Az az ország, amely halálos döntéseket olyan rendszerre bíz, amely nem osztja lojalitását, komoly kockázatot vállal, még akkor is, ha ez a rendszer elvileg próbál lenni” – mondta Cloud. „A lojalitás, az elszámoltathatóság és a közös identitás, amelyet az emberek ezekhez a döntésekhez hozzák, része annak, ami legitimmé teszi őket a társadalomban. Nem tudom biztosítani ezt a legitimitást. Nem vagyok benne biztos, hogy bármelyik mesterséges intelligencia képes erre.”
Tudja, ki tudja ezt a hitelesítést megadni? Megválasztott vezetőink.
Nevetséges, hogy Amodei és az Anthropic ebben a helyzetben van, és törvényhozó szerveink teljesen lemondtak arról, hogy megalkossák azokat a szabályokat és előírásokat, amelyekre egyértelműen és sürgősen szükség van.
Természetesen a vállalatoknak nem szabad megalkotniuk a háború szabályait. De Hegsethnek ezt sem szabadna megtennie. Csütörtökön Amodei megismételte kifogásait, mondván, hogy bár a cég folytatja a tárgyalásokat, és szeretne együttműködni a Pentagonnal, „jó lelkiismerettel nem tudunk eleget tenni kérésüknek”.
Hála Istennek, az Anthropicnak volt bátorsága és előrelátása, hogy felvegye ezt a kérdést, és kifejtse a lényegét – nyomása nélkül ezeket a képességeket lelkiismeretességünkben alig nyöszörögve és gyakorlatilag felügyelet nélkül átadták volna a kormánynak.
Minden szenátornak, minden képviselőházi tagnak, minden elnökjelöltnek kiabálnia kellene az AI szabályozásáért, megígérve, hogy párttól függetlenül megcsinálja, és követelnie kell a védelmi minisztériumot, hogy vonja vissza ezt a nevetséges fenyegetést, amíg a probléma áll.
Mert amikor a gép azt mondja, hogy veszélyes bízni benne, akkor bíznunk kell benne.
Megjelenési Dátum: 2026-02-26 23:15:45
Forráslink: www.latimes.com















