Команда дослідників з Apple представила нову ШІ-систему під назвою Reference Resolution As Language Modeling (ReALM), яка, за їхніми словами, перевершує GPT-4 у низці завдань.
У статті, опублікованій на arXiv, розробники Apple описують ReALM як LLM (Large Language Model), здатну давати точніші відповіді на запити користувачів, використовуючи інформацію з екрана пристрою, а також відомості про поточні завдання і контекст.
За словами фахівців, ReALM може не тільки обробляти текст, а й “дивитися” на екран, отримуючи доступ як до розмовної, так і до довідкової інформації. Це дає змогу ШІ краще розуміти хід думок користувача і надавати йому саме ті відомості, які він шукав.
Тестування моделі показало, що вона перевершує GPT-4 та інші LLM у певних типах завдань.
Apple планує інтегрувати ReALM у свої пристрої, що дасть змогу Siri давати точніші та релевантніші відповіді на запити користувачів. Очікується, що новинка стане доступна користувачам iPhone і iPad з оновленням до iOS 18.