Stanislav
@uberwow
I am Stanislav aka uberwow, a self-professed geek, serial startuper, data scientist and Python\C++ developer.
70 posts

Резюме \\ Обо мне

English version: https://teletype.in/@uberwow/english

Ищем закономерности при заказе на дом бутилированной воды с GPT4

Я люблю собирать всевозможные данные и статистику, искать в них закономерности, инсайты и паттерны.

Юзекейсы использования ChatGPT с полей \ ChatGPT use cases worldwide

Давеча наткнулся на ветку на реддите, в которой сообщество обсуждало кейсы использования чатгпт на реальных примерах в жизни. Всем, кто практикует, очень советую ознакомиться с веткой.

Language Modeling Is Compression \ Языковое моделирование - это сжатие

https://aps.arxiv.org/abs/2309.10668

Tender Hack Samara 2019. Универсальный сервис распознавания неструктурированной информации

Нашел раритетную презентацию с нашего первого совместного коммандного хакатона в Самаре :) Кстати в 2022г. на Тендерхаке в Мск мы заняли ВТОРОЕ место с отрывом всего в пару очков от первого места:)

Разработчики ChatGPT достигли прогресса в разработке Q-Star

"Разработчики ChatGPT достигли прогресса в разработке Q* (произносится как Q-Star), которая, по мнению некоторых специалистов, может стать прорывом в поисках сверхразума, известного также как искусственный интеллект общего назначения (AGI), сообщил один из собеседников Reuters. OpenAI определяет AGI как системы искусственного интеллекта, которые умнее человека.

Новый SOTA опенсурс модели для кода: Deepseek Coder

Выпущенные (китайскими разработчиками) DeepSeek Coder модели, обученные на 87% кода и 13% естественного языка на английском и китайском. Каждая модель предварительно обучена на 2Т токенов. Авторы предоставляют различные размеры моделей кодогена, варьирующиеся от 1B до 33B.

Список открытых и дообученных больших языковых моделей (LLM)

Mistral.ai представили Mistral 7B. Эта модель превосходит Llama 2 13B, имеет длинное контекстное окно, и запускается на CPU. и… Stability AI представили открытый StableLM-3B-4E1T.

LLaVA-RLHF: Aligning Large Multimodal Models with Factually Augmented RLHF

RLHF - Обучение с подкреплением на основе обратной связи от человека Обучение с подкреплением на основе обратной связи от человека (RLHF) - это подход машинного обучения, который объединяет методики обучения с подкреплением, такие как вознаграждения и сравнения, с коррекцией ответов человеком, для обучения искусственного интеллекта (ИИ) агенту. Машинное обучение является важной составляющей ИИ.

Qwen-VL: Новая мультимодальная языковая модель (от Alibaba).

Qwen-VL: вероятно лучшая мультимодальная языковая модель (by Alibaba)

LLaVa-VL (Visual Instruction) смогла!

Помните эту картинку из презентации OpenAI, где они рассказывали, как научили GPT4 в мультимодальность, которая с глубиной осмысленности описала абсурдность этого кадра?