September 21

Как алгоритм Co-LLM помогает ИИ моделям давать более точные ответы

CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation

Представьте, что вас спросили о чем-то, в чем вы разбираетесь лишь частично. Чтобы ответить правильно, вы бы, скорее всего, позвонили другу, который лучше знает эту тему. Такой подход – сотрудничество – может быть полезен и для искусственного интеллекта. Но до недавнего времени было сложно научить большие языковые модели (LLM) понимать, когда им лучше обратиться за помощью к другой, более специализированной модели.

https://github.com/clinicalml/co-llm

Исследователи из MIT предложили новый алгоритм под названием Co-LLM, который помогает двум разным моделям работать вместе. Одна из них — это универсальная модель, которая решает обширный круг задач, а другая — специализированная, настроенная на конкретные области, такие как медицина или математика. Алгоритм позволяет моделям объединять свои усилия, что приводит к более точным и эффективным ответам.

Как это работает?

Когда универсальная модель начинает отвечать на запрос, алгоритм Co-LLM анализирует каждое слово в ответе и решает, нужно ли обратиться к экспертной модели за более точным ответом. Этот процесс похож на то, как менеджер проекта решает, когда нужно пригласить специалиста для решения сложной задачи.

Например, если задать вопрос о вымерших видах медведей, универсальная модель начнет составлять ответ. Но на этапе, где нужно указать точные даты вымирания, Co-LLM может заменить часть ответа на более точную информацию от специализированной модели. Это позволяет получать не только более точные, но и более полные ответы.

Примеры использования

Исследователи протестировали Co-LLM на разных задачах. Например, в одном из тестов универсальная модель пыталась решить математическую задачу: **a³ · a² при a = 5**. Она дала неправильный ответ — 125. Но с помощью специализированной математической модели результат был скорректирован на правильный — 3125.

Другой пример — медицинские вопросы. Если универсальная модель пытается назвать компоненты определенного лекарства, она может ошибиться. Но с помощью экспертной модели, обученной на медицинских данных, ответ будет более точным.

Почему это важно?

Алгоритм Co-LLM показывает, что эффективное сотрудничество между моделями может значительно повысить точность ответов. В отличие от других методов, где все модели работают одновременно, Co-LLM включает экспертную модель только тогда, когда это необходимо. Это позволяет экономить ресурсы и ускорять процесс.

К тому же, такой подход напоминает человеческую работу в команде — когда мы, решая задачу, понимаем, что в определенный момент лучше обратиться к эксперту.

Что дальше?

Исследователи планируют улучшить алгоритм, добавив возможность не только обращаться за помощью к экспертной модели, но и корректировать ответы, если они оказались неверными. Кроме того, они хотят сделать модель еще более адаптивной, чтобы она могла обновлять свои знания по мере появления новой информации.

В будущем Co-LLM может использоваться в различных областях: от медицинских исследований до работы с корпоративными документами. Алгоритм сможет обновлять данные и помогать специалистам принимать более точные решения.

Co-LLM — это шаг вперед в развитии искусственного интеллекта. Этот алгоритм учит модели эффективно сотрудничать, что делает ответы более точными и надежными. Вместо того чтобы строить одну сложную модель, которая знает всё, MIT предлагает создавать "экосистемы" моделей, каждая из которых будет экспертом в своей области. Такой подход позволяет получать более качественные и эффективные решения, сохраняя при этом ресурсы.