Hogyan építsünk olyan csapatokat, amelyek tudják, mikor kell megbízni az AI-ban, és mikor nem

A mesterséges intelligencia lenyűgöző mennyiségű mindennapi, fárasztó munkát képes kiküszöbölni. Alkotó munkát is végezhet. De az alapvető kérdés továbbra is fennáll: így kell-e lennie?

Ahogy a mesterséges intelligencia szervezeteken belüli alkalmazása új magasságokat ér el, a vállalatok is felismerik korlátait – és bizonyos esetekben visszaszorulnak. Fontolja meg a Duolingo nyelvoktató céget, amely bejelentette, hogy fokozatosan megszünteti a szabadúszó írókat és fordítókat, és mesterséges intelligencia által generált tartalommal helyettesíti őket. A nyilvános ellenreakciók és a felhasználói jelentések nyomán, amelyek szerint az AI által generált szövegek képletesnek tűnnek, és hiányoznak a kulturális árnyalatok, a Duolingo tisztázta álláspontját.

Louis von Ahn vezérigazgató a következőket írta: „Nem látom az AI-t az alkalmazottaink tevékenységének helyettesítésére… Úgy látom, hogy ez egy olyan eszköz, amellyel felgyorsíthatjuk tevékenységünket, ugyanolyan vagy jobb minőségi szintre.”

Elvihető: Vakon átadjuk az AI-nak, csak azért, mert az megteheti Egy feladat végrehajtása éppoly kockázatos lehet, mint a vele való közvetlen szembenézés. Egy automatizálással foglalkozó vállalat vezérigazgatójaként azt tapasztaltam, hogy az alkalmazottaknak fejleszteniük kell ítélőképességüket, meg kell tanulniuk, mikor vezethet a mesterséges intelligencia a fejlődéshez, és mikor kell az emberi belátásnak vezető szerepet játszania.

Íme, hogyan segíthetik a vezetők ezt az ítélőképességet csapataikon belül.

Az elszámoltathatóság továbbra is emberi szinten marad, még akkor is, ha a mesterséges intelligencia segít

Ha az összesített tudás eddig felfedett valamit, akkor az az, hogy az AI félrecsúszik, ha árnyékban használják. Az alkalmazottak sokkal több feladatot delegálhatnak a mesterséges intelligenciára, beleértve az olyan feladatokat is, amelyek még mindig emberi közreműködést igényelnek, mint például a kreativitás, az empátia és a szubjektív, megkérdőjelezhetetlen ítéletek.

Ezért ma minden vállalatnak világos mesterséges intelligencia-politikára van szüksége, amely átlátható és minden alkalmazott számára elérhető. Az utasítások fájlmentes része nem vágja ki.

Egyes vezetők vezetői memorandumban vázolják vállalatuk politikáját. Például Toby Lutke, a Shopify vezérigazgatója egy rövid belső feljegyzésben foglalta össze a vállalat mesterséges intelligenciával kapcsolatos megközelítését:

„Mielőtt nagyobb létszámot és erőforrásokat követelnének meg, a csapatoknak be kell mutatniuk, hogy miért nem tudják elvégezni azt a munkát, amit AI segítségével szeretnének.”

A Jotformnál az időszakos feljegyzéseket chatekkel és prezentációkkal egészítjük ki a heti teljes körű megbeszéléseink során. Vezetőinkkel együtt áttekintjük az AI-frissítéseket, jóváhagyott eszközöket és példákat a mesterséges intelligencia helyes használatára – valamint megosztjuk az időnkénti szerencsétlenségeket.

Legyen szó értekezletről, feljegyzésről vagy virtuális vitafórumról, a vezetőknek világos határokat kell meghatározniuk azzal kapcsolatban, hogy a mesterséges intelligencia hol hoz döntéseket, és hol hoz döntéseket az emberek.

Párosítsa a házirendet a valós próbálgatással

A formális és informális mesterségesintelligencia-irányelv létrehozása csak a fele az egyenletnek. A másik fele azt vizsgálja, hogyan működnek ezek a politikák a gyakorlatban.

A vezetők feladata a csapatok képzése, hogy folyamatosan felmérjék az AI erősségeit és korlátait a vállalat tényleges munkafolyamatán belül. Amikor a gyengeségek kiderülnek, ideje újragondolni a megközelítést. Például sok szervezet használt mesterséges intelligenciát a toborzás hatékonyabbá tételére. Első pillantásra az eredmények ígéretesek voltak: a vállalatok több jelölttel tudtak interjút készíteni, és gyorsabban azonosíthatták a legjobb tehetségeket. A felvételi csapatok azonban kihívásokkal is szembesültek, beleértve a hallgatólagos elfogultságot és a magasan képzett jelöltek nem szándékos kizárását a szigorú szűrési kritériumok miatt. Ennek eredményeként a vállalatoknak át kellett igazítaniuk mesterségesintelligencia-használatukat, és nagyobb felelősséget kellett ruházniuk az alkalmazottakra.

Az AI erősségei és gyengeségei értékelésének minden üzleti területen folyamatos párbeszédet kell folytatnia az alkalmazottak és a vezetők között. Az alkalmazottakat ösztönözni kell arra, hogy kísérletezzenek új eszközökkel és osszák meg tapasztalataikat. A vezetőknek rendszeres bejelentkezéseket kell ütemezniük annak biztosítására, hogy a nem megfelelő vagy nem hatékony használat ne maradjon ellenőrzés nélkül.

Tedd az AI értékelését folyamatos beszélgetéssé

Amikor a csapatok mesterséges intelligencia eszközöket integrálnak a munkafolyamatba, az egyik kockázat az, hogy a felelősség szétszóródik. Az elszámoltathatóság átesik. Például, ha egy mesterséges intelligencia alapú chatbot elavult információkat ad az ügyfélnek, ki a hibás? Vagy ami még fontosabb, kinek a felelőssége annak biztosítása, hogy ez ne ismétlődhessen meg? Ez nem mindig egyértelmű. A mesterséges intelligencia hibáztatása pedig nem tesz mást, mint megakadályozza a folyamatok korrekcióját.

A szándékos és megosztott elszámoltathatóság viszont megakadályozza, hogy a csapatok teljesen kiszervezzék a feladatokat, valamint a tulajdonjogot. A Jotformnál minden csapat kijelöl egy emberi „tulajdonost” az AI által támogatott kimenethez. Bár ez a személy felelős a feladat megfelelő végrehajtásáért, az egész csapat továbbra is részt vesz a kimenet áttekintésében és finomításában.

Egy másik lehetséges biztonsági projekt egy mesterséges intelligencia felülvizsgálati lépés hozzáadása az ellenőrzőlistához, amely megköveteli a tények és források ellenőrzését. Ha különösen kockázatos feladatról vagy projektről van szó, két emberellenőrző nem rossz ötlet.

A megosztott elszámoltathatóság segít abban, hogy az eredmények a csapat felelőssége maradjanak, ne az AI. Az Alphabet vezérigazgatója, Sundar Pichai szavai szerint az embereknek nem szabad vakon megbízniuk az AI-ban. A mesterséges intelligencia egy eszköz az emberi ítélőképesség javítására, nem pedig helyettesíti azt, és a csapatoknak ébernek kell maradniuk, és elszámoltathatónak kell lenniük a mesterséges intelligencia által meghozott döntésekért.


Megjelenési Dátum: 2026-03-10 04:30:00

Forráslink: www.fastcompany.com