Generatív mesterséges intelligencia-háború a mesterséges intelligencia ellen, „robban az AI chip-igény”

A generatív mesterséges intelligencia szolgáltatási termékek, mint például a ChatGPT és a Midjourney felkeltik a piac figyelmét.Ennek fényében a Koreai Mesterséges Intelligencia Ipari Szövetség (KAIIA) megtartotta a „Gen-AI Summit 2023” rendezvényt a COEX-en a szöuli Samseong-dongban.A kétnapos rendezvény célja a generatív mesterséges intelligencia (AI) fejlesztésének elősegítése és előmozdítása, amely kiterjeszti a teljes piacot.

Az első napon Jin Junhe, a mesterséges intelligencia fúziós üzletágának vezetőjének beszédével kezdődően a ChatGPT-t aktívan fejlesztő és kiszolgáló nagy technológiai cégek, mint a Microsoft, a Google és az AWS, valamint a mesterséges intelligencia félvezetőket fejlesztő fabula iparágak vettek részt. releváns előadásokat tartott, köztük Yoo Seung-jae, a Persona AI vezérigazgatója által készített „A ChatGPT által hozott NLP-módosításokat” és Baek Jun-ho, a Furiosa AI vezérigazgatója által készített „Nagy teljesítményű, energiahatékony és méretezhető mesterséges intelligencia következtetési chip felépítése a ChatGPT-hez”.

Jin Junhe elmondta, hogy 2023-ban, a mesterséges intelligencia háború évében a ChatGPT csatlakozó új játékszabályként jelenik meg a piacon a Google és az MS közötti hatalmas nyelvi modellversenyben.Ebben az esetben a mesterséges intelligencia modelleket támogató félvezetőkben és gyorsítókban lát lehetőségeket.

A Furiosa AI egy reprezentatív Fabless vállalat, amely mesterséges intelligencia félvezetőket gyárt Koreában.A Furiosa AI vezérigazgatója, Baek, aki keményen dolgozik általános célú mesterséges intelligencia félvezetők kifejlesztésén, hogy felzárkózzon a világ hiperméretű mesterséges intelligencia piacának legnagyobb részét birtokló Nvidiához, meg van győződve arról, hogy „a chipek iránti kereslet a mesterséges intelligencia területén a jövőben robbanásszerűen meg fog növekedni. ”

Ahogy a mesterséges intelligencia szolgáltatások egyre összetettebbé válnak, elkerülhetetlenül megnövekedett infrastrukturális költségekkel kell szembenézniük.Az Nvidia jelenlegi A100-as és H100-as GPU-termékei megvannak a mesterséges intelligencia-számításhoz szükséges nagy teljesítmény és számítási teljesítmény, de az összköltségek – például a magas energiafogyasztás és telepítési költségek – növekedése miatt még az ultranagyvállalatok is óvakodnak attól, hogy átálljanak következő generációs termékek.A költség-haszon arány aggodalmát fejezte ki.

Ezzel kapcsolatban Baek megjósolta a technológiai fejlődés irányát, mondván, hogy amellett, hogy egyre több vállalat alkalmazza a mesterséges intelligencia megoldásait, a piaci igény a hatékonyság és a teljesítmény maximalizálása lesz egy adott rendszeren belül, például az „energiatakarékosság”.

Emellett hangsúlyozta, hogy a mesterséges intelligencia félvezetők fejlesztésének elterjedt pontja Kínában a „használhatóság”, és azt mondta, hogy miként lehet megoldani a fejlesztési környezet támogatását és a „programozhatóságot” a kulcs.

Az Nvidia azért építette fel a CUDA-t, hogy bemutassa támogató ökoszisztémáját, és annak biztosítása, hogy a fejlesztői közösség támogassa az olyan reprezentatív mélytanulási keretrendszereket, mint a TensorFlow és a Pytoch, a termékesítés fontos túlélési stratégiájává válik.


Feladás időpontja: 2023. május 29