Сервісні продукти генеративного штучного інтелекту, такі як ChatGPT і Midjourney, привертають увагу ринку. На цьому тлі Корейська промислова асоціація штучного інтелекту (KAIIA) провела «Саміт Gen-AI 2023» на COEX у Самсон-доні, Сеул. Дводенна подія спрямована на просування та просування розвитку генеративного штучного інтелекту (ШІ), який розширює весь ринок.
У перший день, починаючи з основної промови Цзінь Цзюньхе, керівника бізнес-департаменту з синтезу штучного інтелекту, великі технологічні компанії, такі як Microsoft, Google і AWS, які активно розробляють і обслуговують ChatGPT, а також безпереробні галузі, що розробляють напівпровідники штучного інтелекту, відвідали та зробив відповідні презентації, зокрема «Зміни в НЛП, внесені ChatGPT» генерального директора Persona AI Ю Син Чже та «Створення високопродуктивної, енергоефективної та масштабованої мікросхеми висновків ШІ для ChatGPT» генерального директора Furiosa AI Пека Чжун Хо.
Джин Джунхе сказав, що у 2023 році, році війни штучного інтелекту, плагін ChatGPT вийде на ринок як нове правило гри для величезної конкуренції мовних моделей між Google і MS. У цьому випадку він передбачає можливості в напівпровідниках і прискорювачах ШІ, які підтримують моделі ШІ.
Furiosa AI є представницькою компанією fabless, яка виробляє напівпровідники штучного інтелекту в Кореї. Генеральний директор Furiosa AI Пек, який наполегливо працює над розробкою напівпровідників штучного інтелекту загального призначення, щоб наздогнати Nvidia, яка займає більшу частину світового ринку гіпермасштабованого штучного інтелекту, переконаний, що «попит на чіпи в галузі штучного інтелекту вибухне в майбутньому. »
Оскільки послуги штучного інтелекту стають складнішими, вони неминуче стикаються зі збільшенням витрат на інфраструктуру. Поточні продукти Nvidia A100 і H100 GPU мають високу продуктивність і обчислювальну потужність, необхідні для обчислень зі штучним інтелектом, але через збільшення загальних витрат, таких як високе енергоспоживання та витрати на розгортання, навіть надвеликі підприємства побоюються переходити на продукти наступного покоління. Співвідношення витрат і вигод висловило занепокоєння.
У зв’язку з цим Бек передбачив напрямок технологічного розвитку, сказавши, що на додаток до все більшої кількості компаній, які впроваджують рішення штучного інтелекту, ринковим попитом буде максимізація ефективності та продуктивності в рамках певної системи, такої як «енергозбереження».
Крім того, він підкреслив, що точка поширення напівпровідників штучного інтелекту в Китаї — це «зручність використання», і сказав, що ключовим буде те, як вирішити підтримку середовища розробки та «програмованість».
Nvidia створила CUDA, щоб продемонструвати свою екосистему підтримки, і забезпечення підтримки спільнотою розробників репрезентативних фреймворків для глибокого навчання, таких як TensorFlow і Pytoch, стає важливою стратегією виживання для виробництва.
Час публікації: 29 травня 2023 р