Inception 50 millió dollárt vont be kódfókuszú és szöveges diffúziós modellek fejlesztésére

Inception 50 millió dollárt vont be kódfókuszú és szöveges diffúziós modellek fejlesztésére

Inception 50 millió dollárt vont be kódfókuszú és szöveges diffúziós modellek fejlesztésére

Az AI-startupok tőkebeáramlása új rekordokat dönt, és jelenleg kiemelkedően kedvező időszakot élnek azok a kutatók, akik merész, új technológiai irányokkal állnak elő. Ebbe a lendületbe érkezik az Inception, egy frissen induló vállalat, amely a diffúziós modellek szövegre és kódra való adaptálását tűzte ki célul – és ehhez 50 millió dollárnyi seed befektetést biztosítottak számára.

A finanszírozási kört a Menlo Ventures vezette, további befektetők között pedig ott találjuk a Mayfieldet, az Innovation Endeavorst, a Microsoft M12-t, a Snowflake Ventures-t, a Databricks Investmentet és az Nvidia NVentures alapját. Emellett Andrew Ng és Andrej Karpathy is csatlakozott angyalbefektetőként.

Diffúziós modell, de nem a megszokott módon

A projekt vezetője, Stefano Ermon, a Stanford Egyetem professzora, hosszú évek óta foglalkozik diffúziós modellekkel – azokkal az algoritmusokkal, amelyek iteratív finomítással készítenek generált tartalmakat, és olyan rendszereket működtetnek, mint a Stable Diffusion, a Midjourney vagy a Sora.

Ermon célja, hogy a technológiát túlmutassa a képgeneráláson, és olyan területekre vigye át, mint a szoftverfejlesztés, a nagyméretű szövegfeldolgozás és a komplex adatműveletek gyorsítása.

Mercury: diffúziós modell fejlesztőknek

A finanszírozási körrel együtt az Inception bejelentette a Mercury legújabb verzióját – egy olyan diffúziós modellt, amelyet kifejezetten kódolási feladatokra optimalizáltak. A Mercury már integrálásra került több fejlesztői eszközbe, például:

  • ProxyAI
  • Buildglare
  • Kilo Code

Ermon szerint a diffúziós megközelítés egyik legnagyobb előnye a lényegesen alacsonyabb késleltetés (latency) és a jóval kisebb számítási költség, összehasonlítva a klasszikus autoregresszív, tokenről tokenre haladó modellekkel (mint amilyen a GPT-5 vagy a Gemini).

Miért lehet gyorsabb a diffúzió, mint az autoregresszió?

A hagyományos nyelvi modellek soronként építik fel a választ, minden új token az előző alapján jön létre. Ez a folyamat szigorúan szekvenciális, vagyis nehezen párhuzamosítható.

Ezzel szemben a diffúziós modellek:

  • egész szekvenciákat finomítanak iteratívan,
  • a számítások nagy része párhuzamosítható,
  • így a válaszadás drasztikusan felgyorsul.

Ermon szerint a rendszer már most „1000+ token/másodperc” sebességgel működik, ami jóval meghaladja az autoregresszív LLM-ek általános teljesítményét.

A diffúzió előnyei nagy kódbázisoknál

Amikor egy modellnek:

  • összetett kódstruktúrákat kell átlátnia,
  • nagy mennyiségű szöveget kell egyben manipulálnia,
  • vagy komoly hardverkorlátok mellett kell működnie,

a diffúziós paradigma jelentős előnyt kínál. A nagyobb párhuzamosíthatóság miatt még a komplex fejlesztői feladatok is alacsony késleltetéssel, stabil költséggel futtathatók.