English version: https://teletype.in/@uberwow/english
Я люблю собирать всевозможные данные и статистику, искать в них закономерности, инсайты и паттерны.
Давеча наткнулся на ветку на реддите, в которой сообщество обсуждало кейсы использования чатгпт на реальных примерах в жизни. Всем, кто практикует, очень советую ознакомиться с веткой.
https://aps.arxiv.org/abs/2309.10668
Нашел раритетную презентацию с нашего первого совместного коммандного хакатона в Самаре :) Кстати в 2022г. на Тендерхаке в Мск мы заняли ВТОРОЕ место с отрывом всего в пару очков от первого места:)
"Разработчики ChatGPT достигли прогресса в разработке Q* (произносится как Q-Star), которая, по мнению некоторых специалистов, может стать прорывом в поисках сверхразума, известного также как искусственный интеллект общего назначения (AGI), сообщил один из собеседников Reuters. OpenAI определяет AGI как системы искусственного интеллекта, которые умнее человека.
Выпущенные (китайскими разработчиками) DeepSeek Coder модели, обученные на 87% кода и 13% естественного языка на английском и китайском. Каждая модель предварительно обучена на 2Т токенов. Авторы предоставляют различные размеры моделей кодогена, варьирующиеся от 1B до 33B.
Mistral.ai представили Mistral 7B. Эта модель превосходит Llama 2 13B, имеет длинное контекстное окно, и запускается на CPU. и… Stability AI представили открытый StableLM-3B-4E1T.
RLHF - Обучение с подкреплением на основе обратной связи от человека Обучение с подкреплением на основе обратной связи от человека (RLHF) - это подход машинного обучения, который объединяет методики обучения с подкреплением, такие как вознаграждения и сравнения, с коррекцией ответов человеком, для обучения искусственного интеллекта (ИИ) агенту. Машинное обучение является важной составляющей ИИ.
Qwen-VL: вероятно лучшая мультимодальная языковая модель (by Alibaba)
Помните эту картинку из презентации OpenAI, где они рассказывали, как научили GPT4 в мультимодальность, которая с глубиной осмысленности описала абсурдность этого кадра?