Спеціалісти Пекінської академії штучного інтелекту створили генеративну нейронну мережу глибокого навчання Wu Dao 2.0, яка за своїми параметрами у 10 разів перевищує конкурента Open AI GPT-3 та є потужнішою, ніж Google Switch Transformers.
Wu Dao 2.0 використовує при навчанні і роботі понад 1,75 трильйона параметрів, тоді як у Open AI GPT-3 – 175 мільярдів параметрів. Найближчою до Wu Dao 2.0 є Google Switch Transformers з її 1,6 трильйона параметрів, пише Еngadget.
Wu Dao 2.0 може писати есе, вірші та двовірші на традиційній китайській мові, а також розпізнавати зображення та генерувати їх за словесним описом, імітувати мову, створювати кулінарні рецепти і передбачати тривимірну структуру білків, як AlphaFold.
Голова Пекінської академії штучного інтелекту (BAAI):
«Wu Dao 2.0 – це джерело живлення для майбутнього реального штучного інтелекту, з мегаданими, обчислювальною мегапотужністю та мегамоделями»
Зараз розробкою уже зацікавились 22 компанії, зокрема, Xiaomi.
Зазначимо, що університет Цінхуа у Китаї уже зарахував на навчання віртуальну студентку зі штучним інтелектом, який працює на моделі Wu Dao 2.0.