Специалисты Пекинской академии искусственного интеллекта создали генеративную нейронную сеть глубокого обучения Wu Dao 2.0, которая по своим параметрам в 10 раз превышает конкурента Open AI GPT-3 и является более мощной, чем Google Switch Transformers.
Wu Dao 2.0 использует при обучении и работе более 1,75 триллиона параметров, тогда как в Open AI GPT-3 — 175 млрд параметров. Ближайшей к Wu Dao 2.0 является Google Switch Transformers с ее 1,6 триллиона параметров, пишет Еngadget.
Wu Dao 2.0 может писать эссе, стихи и двустишия на традиционном китайском языке, а также распознавать изображения и генерировать их по словесному описанию, имитировать язык, создавать кулинарные рецепты и предсказывать трехмерную структуру белков, как AlphaFold.
Председатель Пекинской академии искусственного интеллекта (BAAI):
«Wu Dao 2.0 — это источник питания для будущего реального искусственного интеллекта, с мегаданными, вычислительной мегамощностью и мегамоделями»
Сейчас разработкой уже заинтересовались 22 компании, в частности, Xiaomi.
Отметим, что университет Цинхуа в Китае уже зачислил на обучение виртуальную студентку с искусственным интеллектом, который работает на модели Wu Dao 2.0.