Generatív mesterséges intelligencia-háború a mesterséges intelligencia ellen, „robban az AI chip-igény”

A generatív mesterséges intelligencia szolgáltatási termékek, mint például a ChatGPT és a Midjourney felkeltik a piac figyelmét. Ennek fényében a Koreai Mesterséges Intelligencia Ipari Szövetség (KAIIA) megtartotta a „Gen-AI Summit 2023” rendezvényt a COEX-en a szöuli Samseong-dongban. A kétnapos rendezvény célja a generatív mesterséges intelligencia (AI) fejlesztésének elősegítése és előmozdítása, amely kiterjeszti a teljes piacot.

Az első napon Jin Junhe, a mesterséges intelligencia fúziós üzletágának vezetőjének beszédével kezdődően a ChatGPT-t aktívan fejlesztő és kiszolgáló nagy technológiai cégek, mint a Microsoft, a Google és az AWS, valamint a mesterséges intelligencia félvezetőket fejlesztő fabula iparágak vettek részt. releváns előadásokat tartott, beleértve a „ChatGPT által hozott NLP-módosításokat” a Persona AI vezérigazgatójától, Yootól Seung-jae és „Nagy teljesítményű, energiahatékony és skálázható mesterséges intelligencia következtetési chip építése a ChatGPT-hez”, a Furiosa AI vezérigazgatója, Baek Jun-ho.

Jin Junhe elmondta, hogy 2023-ban, a mesterséges intelligencia háború évében a ChatGPT csatlakozó új játékszabályként jelenik meg a piacon a Google és az MS közötti hatalmas nyelvi modellversenyben. Ebben az esetben a mesterséges intelligencia modelleket támogató félvezetőkben és gyorsítókban lát lehetőségeket.

A Furiosa AI egy reprezentatív Fabless vállalat, amely mesterséges intelligencia félvezetőket gyárt Koreában. A Furiosa AI vezérigazgatója, Baek, aki keményen dolgozik általános célú mesterséges intelligencia félvezetők kifejlesztésén, hogy felzárkózzon a világ hiperméretű mesterséges intelligencia piacának legnagyobb részét birtokló Nvidiához, meg van győződve arról, hogy „a chipek iránti kereslet a mesterséges intelligencia területén a jövőben robbanásszerűen meg fog növekedni. ”

Ahogy a mesterséges intelligencia szolgáltatások egyre összetettebbé válnak, elkerülhetetlenül megnövekedett infrastrukturális költségekkel kell szembenézniük. Az Nvidia jelenlegi A100-as és H100-as GPU-termékei a mesterséges intelligencia-számításhoz szükséges nagy teljesítményt és számítási teljesítménnyel rendelkeznek, de az összköltségek – például a magas energiafogyasztás és telepítési költségek – növekedése miatt még az ultranagyvállalatok is óvakodnak attól, hogy átálljanak következő generációs termékek. A költség-haszon arány aggodalmát fejezte ki.

Ezzel kapcsolatban Baek megjósolta a technológiai fejlődés irányát, mondván, amellett, hogy egyre több cég alkalmazza a mesterséges intelligencia megoldásait, a piaci igény a hatékonyság és a teljesítmény maximalizálása lesz egy-egy adott rendszeren belül, például az „energiatakarékosság”.

Emellett hangsúlyozta, hogy a mesterséges intelligencia félvezetők fejlesztésének elterjedt pontja Kínában a „használhatóság”, és azt mondta, hogy miként lehet megoldani a fejlesztési környezet támogatását és a „programozhatóságot” a kulcs.

Az Nvidia azért építette meg a CUDA-t, hogy bemutassa támogató ökoszisztémáját, és annak biztosítása, hogy a fejlesztői közösség támogassa az olyan reprezentatív keretrendszereket, mint a mély tanulás, mint például a TensorFlow és a Pytoch, fontos túlélési stratégiává válik a termékesítésben.


Feladás időpontja: 2023. május 29