Inception 50 millió dollárt vont be kódfókuszú és szöveges diffúziós modellek fejlesztésére
Inception 50 millió dollárt vont be kódfókuszú és szöveges diffúziós modellek fejlesztésére
Az AI-startupok tőkebeáramlása új rekordokat dönt, és jelenleg kiemelkedően kedvező időszakot élnek azok a kutatók, akik merész, új technológiai irányokkal állnak elő. Ebbe a lendületbe érkezik az Inception, egy frissen induló vállalat, amely a diffúziós modellek szövegre és kódra való adaptálását tűzte ki célul – és ehhez 50 millió dollárnyi seed befektetést biztosítottak számára.
A finanszírozási kört a Menlo Ventures vezette, további befektetők között pedig ott találjuk a Mayfieldet, az Innovation Endeavorst, a Microsoft M12-t, a Snowflake Ventures-t, a Databricks Investmentet és az Nvidia NVentures alapját. Emellett Andrew Ng és Andrej Karpathy is csatlakozott angyalbefektetőként.
Diffúziós modell, de nem a megszokott módon
A projekt vezetője, Stefano Ermon, a Stanford Egyetem professzora, hosszú évek óta foglalkozik diffúziós modellekkel – azokkal az algoritmusokkal, amelyek iteratív finomítással készítenek generált tartalmakat, és olyan rendszereket működtetnek, mint a Stable Diffusion, a Midjourney vagy a Sora.
Ermon célja, hogy a technológiát túlmutassa a képgeneráláson, és olyan területekre vigye át, mint a szoftverfejlesztés, a nagyméretű szövegfeldolgozás és a komplex adatműveletek gyorsítása.
Mercury: diffúziós modell fejlesztőknek
A finanszírozási körrel együtt az Inception bejelentette a Mercury legújabb verzióját – egy olyan diffúziós modellt, amelyet kifejezetten kódolási feladatokra optimalizáltak. A Mercury már integrálásra került több fejlesztői eszközbe, például:
- ProxyAI
- Buildglare
- Kilo Code
Ermon szerint a diffúziós megközelítés egyik legnagyobb előnye a lényegesen alacsonyabb késleltetés (latency) és a jóval kisebb számítási költség, összehasonlítva a klasszikus autoregresszív, tokenről tokenre haladó modellekkel (mint amilyen a GPT-5 vagy a Gemini).
Miért lehet gyorsabb a diffúzió, mint az autoregresszió?
A hagyományos nyelvi modellek soronként építik fel a választ, minden új token az előző alapján jön létre. Ez a folyamat szigorúan szekvenciális, vagyis nehezen párhuzamosítható.
Ezzel szemben a diffúziós modellek:
- egész szekvenciákat finomítanak iteratívan,
- a számítások nagy része párhuzamosítható,
- így a válaszadás drasztikusan felgyorsul.
Ermon szerint a rendszer már most „1000+ token/másodperc” sebességgel működik, ami jóval meghaladja az autoregresszív LLM-ek általános teljesítményét.
A diffúzió előnyei nagy kódbázisoknál
Amikor egy modellnek:
- összetett kódstruktúrákat kell átlátnia,
- nagy mennyiségű szöveget kell egyben manipulálnia,
- vagy komoly hardverkorlátok mellett kell működnie,
a diffúziós paradigma jelentős előnyt kínál. A nagyobb párhuzamosíthatóság miatt még a komplex fejlesztői feladatok is alacsony késleltetéssel, stabil költséggel futtathatók.