Az antropikus mesterséges intelligencia biztonsági kutatója lemondott, és azt mondta, hogy „veszélyben a világ” – National

Egy mesterséges intelligenciakutató a héten otthagyta állását az amerikai Anthropic cégnél, és titokzatos figyelmeztetéssel figyelmeztetett a világ helyzetére, ami a biztonsági kockázatok és etikai dilemmák miatti távozási hullám legutóbbi felmondása.

napon közzétett levélben

1:57 Az embereknek „nagyon óvatosnak kell lenniük”, ha a mesterséges intelligenciát orvosi tanácsadásra használják

Előző videó Következő videó

A történet a hirdetés alatt folytatódik

Elmondása szerint elhivatottnak érzi magát, hogy írásból és költészetből diplomát szerezzen, és a „bátor beszéd gyakorlatának” szentelje magát.

Hozzátette: „Mindig, amíg itt vagyok, újra és újra láttam, milyen nehéz hagyni, hogy az értékei szabják meg a tetteidet.”

Az Anthropicot 2021-ben alapította egy korábbi OpenAI-alkalmazottból álló csoport, akik megígérték, hogy versenytársainál jobban biztonságközpontúbb megközelítést terveznek az AI-fejlesztésben.

Napi nemzeti híreket kaphat

Naponta egyszer megkapja a nap legfontosabb híreit, politikai, gazdasági és aktuális híreit.

Sharma vezette a vállalat mesterséges intelligencia biztosítékokkal foglalkozó kutatócsoportját.

Az Anthropic jelentéseket adott ki saját termékeinek biztonságáról, köztük a Cloudról, a hibrid-okosító nagy nyelvi modellről, és a megbízható és érthető mesterséges intelligenciarendszerek építése mellett elkötelezett vállalatnak tartja magát.

A céget tavaly kritika érte, miután beleegyezett, hogy 1,5 milliárd dollárt fizet egy csoportos kereset rendezésére a szerzők egy csoportja részéről, akik azt állították, hogy a cég munkájuk kalóz verzióit használta mesterséges intelligencia modelljei betanításához.

Ma van az utolsó napom az Anthropicban. felmondtam.

Íme a levél, amelyet kollégáimmal megosztottam, és amelyben elmagyaráztam döntésemet. pic.twitter.com/Qe4QyAFmxL

— mrinank (@MrinankSharma) 2026. február 9

A történet a hirdetés alatt folytatódik

Sharma lemondására ugyanazon a héten került sor, amikor Zoe Hitzig, az OpenAI kutatója a The New York Times-ban megjelent esszében bejelentette lemondását, a cég hirdetési stratégiájával kapcsolatos aggodalmakra hivatkozva, beleértve a ChatGPIT-ben való hirdetést is.

„Egyszer azt hittem, hogy segíthetek a mesterséges intelligenciát építő embereknek megelőzni az általam okozott problémákat. Ez a hét megerősítette azt a lassú felismerésemet, hogy az OpenAI már nem tesz fel kérdéseket, amelyekre megválaszoltam” – írta.

trend most

  • A BC iskolai lövöldözés áldozata megpróbálta bezárni a könyvtár ajtaját, hogy megvédje osztálytársait

  • Tumbler Ridge lövöldözés: 5 diák, tanár meghalt, a BC RCMP azonosítja a támadót

„Az emberek beszélnek a chatbotoknak orvosi félelmeikről, kapcsolati problémáikról, Istenről és a túlvilágról alkotott hiedelmeikről. Az erre az archívumra épülő hirdetések lehetőséget teremtenek arra, hogy olyan módon manipulálják a felhasználókat, amelyek megértéséhez nem is rendelkezünk megfelelő eszközökkel, nem is beszélve a megelőzésről.”

Még több videó a világról

Az Anthropic és az OpenAI nemrégiben nyilvános vitába keveredett, amikor az Anthropic kiadott egy Super Bowl-hirdetést, amelyben kritizálta az OpenAI azon döntését, hogy hirdetéseket jelenítsen meg a ChatGPTT-n.

2024-ben az OpenAI vezérigazgatója, Sam Altman kijelentette, hogy nem rajong a hirdetések használatáért, és „végső megoldásként” alkalmazná azokat.

A múlt héten egy hosszú bejegyzéssel cáfolta a hirdetés állítását, amelyben az Anthropicot kritizálta, hogy a hirdetések beágyazása félrevezető.

„Azt hiszem, az antropikus kettős beszéd márkája, hogy megtévesztő hirdetésekkel kritizálja az elméletileg félrevezető hirdetéseket, amelyek nem valódiak, de a Super Bowl-hirdetések nem ott vannak, ahol elvárnám” – írta, hozzátéve, hogy a hirdetések továbbra is lehetővé teszik a szabad hozzáférést, ami szerinte „ügynökséget” hoz létre.

A történet a hirdetés alatt folytatódik

Először is a jó rész az Antropikus reklámokról: Viccesek, és én nevettem.

De vajon miért akar az Anthropic valami olyan nyilvánvalóan becstelen dolog mellett. A legfontosabb reklámelvünk az, hogy ezt semmiképpen nem fogjuk megtenni; Nyilvánvalóan soha nem fogunk antropogén módon reklámozni…

– Sam Altman (@sama) 2026. február 4

Mindkét konkurens vállalat – a Hitzig és a Sharma – alkalmazottai komoly aggodalmukat fejezték ki a mesterséges intelligencia integritásának megőrzése és a felhasználók manipulációtól való védelme érdekében megállapított vezérelvek eróziója miatt.

Hitzig azt írta, hogy az OpenAI saját elveinek potenciális erodálása az elkötelezettség maximalizálása érdekében már most is megtörténik a cégnél.

Sharma kijelentette, hogy aggódik amiatt, hogy az AI „eltorzítja az emberiséget”.

© 2026 Global News, a Corus Entertainment Inc. részlege.


Megjelenési Dátum: 2026-02-12 17:00:46

Forráslink: globalnews.ca