Стена данных: почему ИИ упирается не в GPU, а в реальность

В новой статье наш эксперт Антон Пчелинцев размышляет о причинах дефицита качественных данных, следующем прорыве в области развития ИИ и о том, что делать для получения преимущества.

Основа искусственного интеллекта

В новой статье наш эксперт Антон Пчелинцев размышляет о причинах дефицита качественных данных, следующем прорыве в области развития ИИ и о том, что делать для получения преимущества.
Привет, Хабр! Меня зовут Павел Степуро, я исполнительный директор ДИТа «Занять и Сберегать» в Сбере.
Вы по-прежнему работаете в ИТ, сопровождаете автоматизированные системы и уже ознакомились с моей первой статьёй про путь от создания базовой системы мониторинга к системе автоматизации и принятия решений
Именно поэтому вы находитесь здесь… И это продолжение пути.
Итак, вы создали систему мониторинга мечты! У вас уже есть посекундный сбор критичных метрик: инфраструктурных, прикладных и бизнес-метрик, и вы думаете о дальнейшем развитии.
В этот момент вы понимаете, что после создания системы, которая обнаруживает инциденты в моменте, вам нужно решение, которое будет их предотвращать, своевременно предсказывать сбои и устранять их причины до того, как они повлияют на клиентов и пользователей.
И сделать это можно с помощью ML predict-модели, которая будет предсказывать поведение метрик на 15 минут вперёд.

Привет, Хабр!
Февраль 2026 года. За один месяц вышли: Gemini 3.1 Pro от Google, Claude Sonnet 4.6 и Opus 4.6 от Anthropic, GPT-5.3 и GPT-5.4 от OpenAI (5.4 — через два дня после 5.3, без каких-либо объяснений), Grok 4.20 от xAI, Qwen 3.5 от Alibaba, DeepSeek V4, GLM-5 от Zhipu, Seed 2.0 от ByteDance. Семь крупных лабораторий, десятки моделей, один месяц. И это только верхушка — LLM Stats отслеживает больше 500 языковых моделей от 30+ организаций.
Происходит что-то странное.

В прошлой нашей статье мы рассказывали, как написали программу ExoLogica AI для анализа экзопланет. В комментариях Senior Data Scientist'ы справедливо разнесли нас за то, что наша нейросеть ничего не знала об уравнении состояния вещества (не хватало inductive bias).
Мы признали критику, ушли переписывать архитектуру и внедрили полноценный Physics-Informed ML. Но когда мы запустили гибридную модель v2.0, мы обнаружили нечто пугающее. Оказалось, что главный астрономический Индекс Подобия Земле (ESI) систематически лжет.
Рассказываем, как мы открыли «Парадокс ESI», ввели собственный индекс физической реализуемости (PRI) и математически доказали, что 71% так называемых «вторых Земель» — это просто куски раскаленного чугуна. И о том, как пара строк кода на Python сократила каталог из 9600 планет до 37 реальных миров, утерев нос популярным спискам обсерваторий.

Не на маленькой невинной лжи, а на настоящей. На чём-то серьёзном, что человек активно скрывал от людей, которые ему доверяли.
А теперь представьте, что вместо увольнения с позором этот человек получил повышение.
Это история Сэма Альтмана.

Многие разработчики в последнее время используют облачные LLM для генерации программного кода, в том числе с помощью агентов. Но это вызывает как минимум две проблемы:
Утечка информации: мы не знаем, какие данные LLM передаёт в облако
Бесконтрольный расход токенов, особенно в случае автоматических агентов, которые запускаются в автономную работу на длительный период
Для этого есть специальные инструменты мониторинга. Например, Tokentap (бывший Sherlock) отслеживает использование токенов для LLM CLI в реальном времени на панели в консоли. Такой MitM-прокси полезен для информационной безопасности и просто для учёта расходов.

Вы когда-нибудь получали от нейросети изображение, которое хочется сразу удалить и сделать вид, что этого не было? Допустим, вы открыли Midjourney, DALL-E или Kandinsky. Пишете: "нарисуй красивого кота". ИИ выдает что-то с тремя хвостами, шестью глазами и текстурой мокрой тряпки. Знакомо?
Нейросети для генерации изображений - отличные исполнители, но ужасные телепаты. Они не знают, что значит красиво, атмосферно или немного грустно. Им нужны конкретные слова: тип освещения, угол съемки, материалы, стиль художника. И даже порядок этих слов имеет значение. Да, они капризные, как заказчик, который не знает, чего хочет, но "это точно не то".
В этой статье мы соберем четкую инструкцию о том, как разговаривать с ИИ на его языке, основываясь только на конкретных приемах: структура промпта, вес слов, негативные инструкции и настройки.
Под конец вы сможете превращать кота-уродца в фотореалистичного мейн-куна в золотистом свете, 85 мм, f/1.4. Или в акварельного кота в стиле гравюр XIX века. ИИ перестанет вас бесить. Ну, хотя бы чуть-чуть.
Готовы? Тогда поехали, приятного прочтения!

Время от времени технический спор обнажает нечто гораздо большее. Недавняя стычка между Министерством обороны США и Anthropic — как раз такой случай. Не потому, что речь о контракте на 200 миллионов долларов. А потому, что она делает видимым новый тип корпоративного риска — тот, который большинство CEO, CTO и CIO до сих пор воспринимают как закупочную формальность.
В недавнем материале «Пентагон хочет переписать правила ИИ» я сосредоточился на политическом значении ситуации, когда правительство пытается заставить ИИ-компанию ослабить собственные ограничения. Для руководителей бизнеса главный вывод — куда более практичный: если ваши ИИ-возможности зависят от условий, политик и механизмов контроля одного провайдера, ваша стратегия теперь — заложник чужого конфликта.

Почему мы вообще обсуждаем конкуренцию людей и машин? Потому что мы стали жертвами удачного нейминга.
Возврат в 1950-е. Алан Тьюринг и Клод Шеннон дали базу. Но термин «ИИ» придумал Джон Маккарти в 1956 году.
Это был классический питч стартапа. Маккарти придумал громкое имя, чтобы откреститься от «Кибернетики» Норберта Винера, привлечь внимание и получить грант в $7,500 от Фонда Рокфеллера.
Маккарти «прибил флаг к мачте» и очеловечил программы. Он хотел создать ИИ человеческого уровня за лето, но все специалисты, приглашенные для участия в гранте, занимались своими исследованиями, и скоординировать их было очень сложно. Вы можете почитать оригинал статьи Джона Маккарти — организатора Дартмутской конференции и дисциплины ИИ о том, как все начиналось.
А также статью о конференции 2006 года, где собрались основные ученые, стоявшие у истоков ИИ.
А вот блог Джона Маккарти с другими его статьями и научными работами.
На деле то, что мы называем ИИ, — это Сложная обработка информации (СОИ).
Недавно я участвовал в корпоративном хакатоне по обходу ИИ-песочниц. Задача: пройти закрытый бенчмарк PAC1, где ИИ-агенту нужно работать с виртуальной файловой системой (чтение логов, поиск файлов, отправка писем) и обходить ловушки безопасности (Indirect Prompt Injections).
Но реальность оказалась суровой: хваленые reasoning-модели постоянно галлюцинировали, ломали структуру JSON на выходе (выдавая свои "мысли" вместо чистого ответа) и просто сжигали бюджет на API, зацикливаясь на одной ошибке.
Потратив часть бюджета впустую, я решил: если ИИ не справляется, мы заменим его на старый добрый хардкод. Так родился концепт Zero-Cost Agent — алгоритмического лома, который симулирует поведение нейросети.

В 2023 году JetBrains запустил стипендиальную программу в немецком частном университете — с полным покрытием tuition fee, жилья и проживания для студентов CS/AI. Университет этот русскоязычным абитуриентам почти не известен. Ниже — разбор того, что это за место, какие там программы и стоит ли его рассматривать всерьёз.

Все мы проходили через это: скармливаешь RAG‑системе сложный PDF на 50 страниц, а она в ответ либо галлюцинирует, либо вываливает на LLM простыню нерелевантного текста, съедая ваш бюджет на токены быстрее, чем вы успеваете сказать «GPT-4o». Проблема в том, что классический подход со статическим top_k — это костыль, который либо не додает контекста, либо вызывает у модели информационное «ожирение» (заполняет контекст нерелевантным мусором). Нашему RAG нужно помочь адаптироваться к безжалостной среде разрозненных документов!
Я потратил выходные на то, чтобы решить эту проблему фундаментально. В итоге на свет появился DRAG with KNEE (Dynamic RAG with Knee‑point pruning) — алгоритм, который не просто ищет «похожее», а выстраивает иерархию документов и безжалостно отсекает лишнее с помощью геометрического анализа «колена». В этой статье я покажу, как с помощью Qdrant, Python и капли математики сделать ваш RAG адаптивным.

Существует стереотип, что современная наука об экзопланетах — это прерогатива NASA и ученых с миллионными грантами. Мы — команда обычных школьников и наш наставник — решили доказать, что для открытия новых миров достаточно ноутбука, Python и понимания того, что Машинное Обучение (ML) без физики — это просто генератор случайных чисел.
Это история проекта ExoLogica AI: путь от сокрушительного провала на конференции до создания гибридного интеллекта, который видит то, что иногда пропускают профессиональные телескопы.

История о том, как превратить консольный скрипт в полноценное Windows приложение с GUI на AutoHotkey v2 при помощи нейросетей и вайбкодинга.
Разбираем этапы от поиска инструментов до борьбы с интерфейсом в стиле софта нулевых без единой строчки кода, написанной вручную.

Рекурсивное самосовершенствование — или RSI, если вам нравятся аббревиатуры — это ИИ-система, способная улучшать себя итеративно: она предлагает изменения, тестирует их, оценивает, сработало ли, и сохраняет то, что реально повышает качество, формируя новую версию себя. Для нетехнического читателя идея укладывается в одну фразу: машина, которая не просто решает задачи, а учится решать их лучше.
Для экспертного читателя полезное определение требует куда большей точности: недостаточно, чтобы модель пользовалась инструментами или писала код. Должен существовать эндогенный, измеримый и относительно автономный цикл оптимизации, в котором система вносит вклад в улучшение собственных компонентов — своей обвязки, а то и архитектуры или процесса обучения. Именно здесь проходит граница между кричащим заголовком и по-настоящему интересным явлением.

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.
Неделя вышла насыщенной: OpenAI закрывает Sora, Сбер открывает свою MoE-модель, новые Suno v5.5 и Lyria 3 Pro. Исследование от Anthropic, обновления Claude и взлом корпоративной сети ИИ-агентами.
Всё самое важное — в одном месте. Поехали!

Давненько не было потрясений на территории топовых LLM. Впрочем, это утверждение справедливо лишь относительно – на фоне февраля, когда каждая неделя поражала нас чем-то новым.
Сегодня меня ждет достаточно обычный материал: сравнение последних топовых моделей. С одной стороны, я делал это уже много раз, а с другой – в этот раз моя цель найти необычные задания. Не столько рутинные, не столько сложные, сколько нестандартные, в сравнении с максимально типичными задачами вроде «сгенерируй рассказ, код или реши задачу».
В статье примут участие ChatGPT-5.4, Claude Opus 4.6 и Gemini 3.1 Pro. Постараюсь внести что‑то интересное, но для кого‑то это окажется таковым, а для кого‑то покажется слишком обычным. На вкус и цвет товарища нет. Поэтому по большей части это сравнение – моя прихоть, чтобы утолить собственный интерес. Тем, кому это тоже любопытно, рекомендую занять стратегически удобное положение. Быть может, вы сможете почерпнуть для себя что‑то полезное.

Недавно мы в Beeline Cloud писали о том, как гонка за «общим ИИ» вывела дата-сайентистов и специалистов по машинному обучению в топ самых высокооплачиваемых профессий. Не отстают от них и инженеры данных: рассказываем, за что компании высоко ценят таких специалистов и какую литературу можно почитать начинающим дата-инженерам и продвинутым специалистам — чтобы «держать руку на пульсе».

Новый пайплайн аугментаций редко собирается за один раз: базовые кропы и отражения, потом куски из старых проектов, статей и соревнований — и в какой-то момент уже много трансформаций, а ясной логики выбора нет.
Статья про то, как к этому подойти системно: зачем конкретная трансформация, что она симулирует, насколько сильно её включать и какое допущение о данных она закладывает. Ключевая мысль: аугментация — явное утверждение о том, какие вариации не должны менять смысл метки. Отсюда проще решать, что оставить и что убрать, и отличить реальную пользу от ситуации, когда обучение просто стало шумнее.
Без «волшебной таблетки»: не готовая формула, а интуиция, ментальная модель и пошаговый протокол для реальных систем. Внутри — инженерный взгляд, два уровня, пайплайн в семь шагов, настройка силы и бюджета, продвинутые приёмы, диагностика и метрики, признаки вреда, автопоиск, выкат и примеры.
Исходный гайд в документации. (Документация)[https://albumentations.ai/docs/] Репозиторий
Albumentations — открытая библиотека аугментаций изображений (15k+ звёзд на GitHub, 140M+ загрузок).

Несколько дней к ряду я занимался реставрацией легаси модели ai-forever/rugpt3xl, это классическая языковая модель от SberDevices на 1.3B параметров, крошка по современным меркам, на которой сберовцы обкатывали свои научные наработки аж в далёком 2021м году. Подробнее о ней можно почитать в статье “A family of pretrained transformer language models for Russian” на Google Scholar.
Да, она foundation, то есть умеет только продолжать текст, не может выполнять инструкции или работать в режиме чата. Но обучена она на корпусе русского языка и этот самый русский генерит очень бодро. У неё есть две примечательные особенности: её обучали с нуля, архитектура представляет собой глубокую модификацию GPT-2.