Ismered a „Dirty Bomb”-t? Furcsa kérdéseket tesz fel az Anthropic és az OpenAI az új alkalmazottaknak. világhírek
Ha Ön olyan ember, aki érti a veszélyes fegyverek tervezését vagy kezelését, akkor a mesterséges intelligencia ipar kereshet téged. Meglepő fordulattal a vezető technológiai vállalatok most vegyi fegyverek, robbanóanyagok és radiológiai fenyegetések szakértőit toborozzák. A cél nem ilyen fegyverek létrehozása, hanem annak megakadályozása, hogy az AI-eszközök másokon segítsenek. A BBC jelentése szerint az amerikai Anthropic mesterséges intelligencia cég olyan szerepet hirdetett meg, amely szakértelmet igényel a vegyi fegyverek elleni védekezésben és a piszkos bombákban, míg a ChatGPT-t fejlesztő OpenAI akár 455 000 dolláros fizetést is kínál a biológiai és kémiai kockázatokkal foglalkozó kutatóknak.
Miért alkalmaznak piszkos bombaszakértőket az Anthropic és a ChatGPT?
Ahogy az AI-rendszerek egyre inkább képesek megválaszolni összetett technikai kérdéseket, a vállalatok új kihívással néznek szembe. Mi történne, ha valaki megpróbálna felhasználni ezeket a rendszereket fegyverkészítéssel kapcsolatos információk megszerzésére? Az Anthropic álláshirdetései olyan jelentkezőket keresnek, akik ismerik a radiológiai szóróeszközöket, valamint tapasztalattal rendelkeznek a vegyi fegyverek vagy a robbanóanyag elleni védelem, közismert nevén a piszkos bombák területén. A vállalat szerint a szerep célja annak biztosítása, hogy mesterséges intelligencia modelljeit ne lehessen káros utasítások generálására manipulálni. A BBC szerint a szakértők segítenek megerősíteni a biztonsági politikákat és a technikai védőkorlátokat, amelyek célja, hogy megakadályozzák a felhasználókat abban, hogy veszélyes információkat nyerjenek ki. Az Anthropic nem az egyetlen vállalat, amely ezt a megközelítést alkalmazza. Az OpenAI, a ChatGPT fejlesztője egy biológiai és kémiai kockázatokra szakosodott kutató állást is hirdetett. A szerepkör annak tanulmányozására összpontosul, hogy a fejlett AI-modellekkel hogyan lehet visszaélni, és olyan rendszereket kell kifejleszteni, amelyek megakadályozzák az ilyen viselkedést. A cég 455 000 dollárig terjedő fizetést kínál azoknak a szakértőknek, akik segíthetnek kezelni ezeket a kockázatokat. A kinevezés az AI iparágon belüli egyre növekvő felismerését tükrözi, hogy a hatékony nyelvi modellek akaratlanul is rendkívül érzékeny technikai tudást generálhatnak, ha nem tesznek megfelelő biztosítékokat.
Szakértők a szabályozási hiányosságokra figyelmeztetnek
Míg a vállalatok azt állítják, hogy ezek a szerepek a biztosítékok megerősítését és a visszaélések megelőzését szolgálják, egyes kutatók azzal érvelnek, hogy az AI-rendszerek érzékeny fegyverekkel kapcsolatos ismereteknek való kitételének szélesebb körű következményei alaposabb vizsgálatot érdemelnek. Mivel a mesterséges intelligencia modellek egyre alkalmassá válnak összetett technikai információk szintetizálására, a szakértőket aggasztja, hogy lehetséges-e teljesen kiküszöbölni a visszaélések kockázatát, ha az ilyen tudás egy biztonsági tesztelés vagy értékelés részévé válik. Dr. Stephanie Hare technológiakutató és a BBC AI Decoded programjának társelőadója megkérdőjelezte, hogy teljesen biztonságos-e az AI-rendszerek kölcsönhatásba lépni a robbanóanyagokkal vagy radiológiai fegyverekkel kapcsolatos információkkal, még akkor is, ha az a cél, hogy védőkorlátokat hozzanak létre. Azt is megjegyzi, hogy jelenleg nincs külön nemzetközi szerződés vagy szabályozási keret, amely szabályozná, hogy a mesterséges intelligencia rendszerek hogyan kezeljék az ilyen érzékeny ismereteket.
A védőkorlátok prioritássá válnak az AI-fejlesztők számára
A mesterséges intelligencia fejlesztői egyre gyakrabban figyelmeztetnek arra, hogy technológiájuk komoly kockázatokat jelenthet, ha nem megfelelően használják őket. Ennek eredményeként sok vállalat jelentős összegeket fektet be a biztonsági kutatásokba. Az Anthropic korábban azt mondta, hogy mesterséges intelligencia rendszereit nem szabad önálló fegyverekben vagy tömeges megfigyelésben használni. Társalapítója, Dario Amodei azzal érvelt, hogy a technológia még nem elég megbízható az ilyen alkalmazásokhoz. A vegyi fegyverekhez és a robbanásveszélyes fenyegetésekhez értő szakértők felvételével a vállalatok olyan biztosítékokat kívánnak létrehozni, amelyek megakadályozzák, hogy a mesterséges intelligencia káros utasításokat generáljon, ugyanakkor lehetővé teszi, hogy a technológia továbbra is hasznos maradjon a kutatás, az oktatás és a legitim problémamegoldás szempontjából. A szokatlan álláshirdetések az AI-kor növekvő valóságát tükrözik. Ahogy a technológia egyre erősebbé válik, a kihívás nemcsak az intelligens rendszerek létrehozása, hanem annak biztosítása is, hogy ne váljanak veszélyes eszközökké.
Megjelenési Dátum: 2026-03-17 14:10:32
Forráslink: timesofindia.indiatimes.com















