Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 293,15
Рейтинг
Сначала показывать
Порог рейтинга

Пара наблюдений (записанных наспех, извините) вокруг ситуации с ИИ:

  1. ИИ умеет писать код, но плохо (= хуже, недостаточно хорошо) умеет поддерживать его. Почему же так? ИИ обучался на основе данных из Интернета. В Интернете очень много кода, но код — это результат процесса разработки. Процесс разработки во многом идёт «в головах» и «на бумаге» отображается редко и не полностью, в отличие от кода. Единственный (основной) источник знаний ИИ о процессах — разные статьи и тому подобное, объём их на порядки меньше объёма готового кода;

    1. То же самое с проектированием архитектуры систем;

    2. Из этого следует, что ИИ неплохо подходит для написания write‑only кода;

    3. Дежурные истины: сложность не всегда в написании кода. Часто/обычно она в его поддержке, развитии, интеграции, в анализе предметной области;

    4. ИИ тоже член команды. Если вы пишете напр. пет‑проект и все традиции оформления кода, именования объектов, ведения документации и тому подобное находятся в вашей голове, вам либо придётся как‑то их сформулировать, чтобы ИИ писал в том же стиле, либо терпеть чужеродно выглядящий код;

    5. ИИ плохо пишет то, по чему мало информации в Интернете;

      1. Наличие в том же Интернете документации не поможет;

      2. Не недооценивайте объём туториалов и готовых решений на Python'е;

  2. При приведении в споре своего опыта работы с ИИ обязательно нужно указывать название модели;

    1. Научно‑технический прогресс измеряется по лучшим представителям;

    2. Вайб‑кодинг тоже бывает разного уровня профессионализма. Уровень более низкий: «написал (бесплатному) Дипсику, чтобы он сделал хорошо», уровень выше: «написал [такому‑то, более хорошему, ИИ], что нужно сделать, с чем интегрироваться, как оформлять, что выдать в ответе; перечитал запрос в поисках неточностей в ТЗ...», уровень выше: «использую плагин в IDE, стандартизировал некоторые требования» и тому подобное;

  3. Текст, который выглядит, как написанный ИИ, написан либо ИИ, либо человеком, который (видимо) обчитался таких же текстов и перенял стиль;

    1. Как было раньше: если статья написана без орфографических ошибок и повествование более‑менее внятное (не как у меня ^_^), это значило, что автор хотя бы статью вычитал, спланировал, отредактировал и тому подобное, то есть вложил силы, потому что написать неграмотно и невнятно может каждый. Сейчас же ИИ пишут как раз таки грамотно, внятно и структурировано, то есть теперь для такого же результата силы вкладывать не нужно;

  4. ИИ могут воспринимать рекомендации и явные разрешения что‑то делать как руководство к действию. Например, «допустимо использовать НазваниеБиблиотеки» резко повышает шанс того, что ИИ именно её и возьмёт;

  5. В вопросе ИИ люди делятся на «философов» и «инструментальщиков». Характерные фразы первых: «чёткого определения интеллекта нет», «ИИ не AGI», «ИИ называть ИИ некорректно» и тому подобное. Часто из тезисов выше ими делается вывод, что всё, что называется ИИ — чепуха. «Инструментальщики» же не заботятся о том, что как называется, им ясно, что даже если ИИ не может делать всё, то он уже может делать много что, поэтому является полезным (как можете догадаться, позицию первых я не разделяю и считаю непродуктивной);

    1. Если где‑то из‑за замены ручного труда на труд ИИ упало качество производимого продукта, но использование ИИ не прекращается, это говорит плохо не об ИИ, а о потребителях продукта. Ибо спрос рождает предложение, и если он удовлетворяется контентом неприемлимо низкого качества (по вашему мнению), то так было бы и без ИИ;

  6. По моим ощущениям, качество вывода ИИ падает от каждого чиха в промпте. Если вы использовали неоднозначное слово, добавили требования по оформлению, забыли уточнить какую‑то мелочь, попросили сделать несколько вещей за раз — качество будет ниже. (Вместо «напиши модуль с документацией и тесты» лучше в разных чатах «напиши документацию», «напиши модуль по документации», «напиши тесты по документации». Разделение труда — великая вещь.)

Теги:
+5
Комментарии3

Как ML-модели помогают снижать потери и увеличивать прибыль

Егор Миранцов, старший аналитик ОТП Банка, провёл мастер-класс для студентов НИТУ МИСИС, где рассказал о практическом применении ML-моделей в бизнесе и о том, как они помогают увеличивать прибыль компании. Делимся основными тезисами.

ML — это не просто технология, а инструмент, который помогает бизнесу расти. Компании, которые внедряют машинное обучение осознанно, получают конкретные бизнес-результаты: растёт конверсия, снижаются потери от мошенничества и ускоряются операционные процессы.

ML также значительно улучшает пользовательский опыт: клиенту легче выбрать нужный ему продукт, получать персонализированные рекомендации, а также значительно сокращается время получения поддержки. По словам спикера, таким образом, ML-модели могут увеличивать вовлечённость и время, которое пользователи проводят на сайте.

ML-модели эффективно выявляют мошеннические операции, при этом не отклоняя транзакции добросовестных клиентов: решения принимаются практически мгновенно. В целом использование машинного обучения позволяет существенно снижать потери, связанные с фродом, оттоком клиентов, просрочками и операционными простоями.

ML активно применяется и в других бизнес-процессах: от кредитного скоринга и принятия решений по заявкам до маркетинга, где модели помогают сегментировать аудиторию и предлагать более релевантные продукты и рекламу.

«Не каждой компании нужен ML — и это нормально. Такие решения эффективны там, где есть понятная бизнес-метрика, большое количество повторяющихся решений, сложные паттерны в данных, а также инфраструктура для тестирования и мониторинга моделей», — поделился Егор Миранцов.

При этом спикер подчеркнул, что эффект от ML измеряется в деньгах, а не в метриках. Ценность любого ML-решения определяется через A/B-тесты и бизнес-экономику — дополнительную выручку, снижение потерь и стоимости ошибок, а не только технические показатели качества модели.

В то же время спикер предупредил, что ML-модели также могут ломаться. Причин для этого может быть несколько: устаревшие фичи, резкая смена поведения пользователя, сезонный сдвиг данных, изменение цен или ассортимента. Поэтому важную роль играет не только разработка модели, но и ее дальнейшая поддержка, а также настройка параметров.

Егор Миранцов также рассказал о ключевых этапах внедрения ML-решений: от формулирования бизнес-задачи и оценки стоимости ошибки до создания базового решения, проверки качества данных и запуска пилота. Только после этого модель масштабируется на весь продукт с обязательной настройкой мониторинга качества и стабильности работы.

«ML — это часть продуктовой и инженерной системы, и часто происходят ситуации, когда побеждает не самая сложная модель, а лучшая интеграция во все процессы. Чтобы принять решение о запуске, важно не только оценить эффект, но и понимать экономику всего процесса», — заключил Егор.

Теги:
0
Комментарии0

Claude Code стал публичным из-за ошибки в сборке

Исходный код агента Claude Code оказался в открытом доступе из-за технической ошибки. При публикации пакета разработчики не исключили .map-файл, что фактически позволило восстановить значительную часть внутренней логики проекта.

Скриншот GitHub
Скриншот GitHub

Репозиторий быстро разошёлся по сообществу: за короткое время он собрал тысячи звёзд на GitHub и был многократно скопирован. Внутри — системные промпты, архитектурные решения, вспомогательные функции и другие элементы, которые обычно остаются закрытыми.

Ознакомиться с утёкшим кодом можно в репозитории: https://github.com/instructkr/claude-code

Ситуация наглядно показывает, насколько критичной может быть даже незначительная ошибка в конфигурации сборки — особенно для проектов с закрытой архитектурой.

Мой блог в Телеграм: Хак Так ⬅ поддержите подпиской!

Теги:
-1
Комментарии0

📣 Всем привет! На связи Михаил, аналитик zool.ai

Завершаю серию постов про автоматизацию в пищевой промышленности. Теперь коротко соберу главное: какой бизнес-эффект даёт автоматизация и почему классические системы всё чаще дополняют видеоаналитикой ⤵️

На пищевом производстве автоматизация — это инструмент снижения потерь и повышения управляемости процесса.

АСУ ТП управляет технологическими операциями, SCADA собирает и визуализирует данные, MES контролирует выпуск, партии и прослеживаемость, ERP отвечает за ресурсы, заказы и планирование.

Эта связка закрывает базовые задачи производства, но работает в основном с параметрами и сигналами от датчиков.

〰️Проблема в том, что часть критичных отклонений лежит вне этих данных:

▫️дефекты упаковки

▫️ смещение или нечитаемость маркировки

▫️ заторы на линии

▫️ просыпание сырья

▫️ нарушения регламентов со стороны персонала

▫️ простои, причина которых неочевидна по данным системы

То есть система фиксирует событие, но не всегда показывает его реальную причину.

Поэтому предприятия всё чаще добавляют видеоаналитику как дополнительный уровень контроля.

Она позволяет в реальном времени:

▫️ контролировать упаковку и маркировку

▫️ выявлять заторы и пустые участки конвейера

▫️ фиксировать потери сырья

▫️ подтверждать причины простоев

▫️ отслеживать нарушения регламентов и ТБ

🌟 Для бизнеса это даёт прикладной эффект:

▫️ рост производительности — на 10–30%

▫️ снижение потерь и брака — на 5–20%

▫️ сокращение простоев оборудования — до 25%

▫️ снижение потерь сырья при внедрении MES — в среднем на 3–5%

▫️ повышение OEE за счёт разбора причин микростопов — на 5–15%

Например, на упаковочной линии видеоаналитика может показать, что до 15% простоев связаны не с поломкой оборудования, а с несвоевременной подачей тары. После настройки такого контроля производительность участка может вырасти на 10% без закупки нового оборудования.

На этом у меня всё! Всем продуктивной недели 💡

Теги:
0
Комментарии0

Плагин для проведения кокунрентного анализа с помощью ИИ

Тут в статье рассказывал как сделать ии-агента для конкурентного анализа, раньше такого рода задачи мы закрывали с помощью отдельных ии-агентов, кто-то на n8n, кто-то как я на ланчейне делал, а все ради того, чтобы получить качественный результат в том формате, который нужен именно нам.

И тогда, чтобы решить задачу с конкурентным анализом я написал отдельного агента на LangChain – Playwright, парсинг сайтов, всё такое.

А теперь с появлением skills паттерна или настройки для агентских систем Claude Code (и в Cursor, Codex) в этом просто пропала необходимость.

Я перетащил все логику из того агента в скилл, и написал плагин который делает тоже самое, но более эффективно и в вашем любимом инструменте.

Если пользуетесь Claude Code, Cursor, Codex — забирайте:

npx skills add Ata-ux/pm-copilot --skill competitive-analysis -g

Просто отправьте это своем агенту, все установится автоматически.

Работает так: после установки, напишите «проведи конкурентный анализ и укажите конкурентов или домен своего продукта»: он сам ходит по сайтам, собирает позиционирование, фичи, тарифы, отзывы, делает SWOT и складывает всё в таблицу.

Теги:
+3
Комментарии0

Вайб-кодинг в энтерпрайзе?

Как приземлить вайб-кодинг в энтерпрайз поговорим об этом на AlfaGen Meetup #3 со спикерами из Альфа-Банка, Яндекса, Сбера и red_mad_robot. Обсудим: 

🔴 Почему код от ИИ подходит не только для пет-проектов?

🔴 Почему вайб-кодинг может вызывать сопротивление?

🔴 Что поменять в процессах, чтобы вайб-кодинг стал их частью?

🔴 Какой минимум обучения нужен, чтобы вайб-кодить?

🔴 С какими инструментами новый подход принесёт пользу продукту?

Обсудим все вопросы 31 марта в 18:00 — подключайтесь к трансляции по ссылке.

Теги:
-3
Комментарии0

Речевая аналитика компании «Криптонит» включена в реестр российского ПО

В реестр вошли программные модули, обеспечивающие решение ключевых задач работы с речевой информацией:

  • транскрибирование голосовой информации;

  • поиск именованных сущностей;

  • определение возрастной группы;

  • определение языка разговора;

  • машинный перевод текста на русский язык для языковой пары английский-русский;

  • выделение речевых и неречевых участков (шумовых, гудков, автоответчиков);

  • автоматическая оценка разговора (крик, шепот, нормальная речь).

Подробнее читайте на нашем сайте

Теги:
-1
Комментарии0

Три доклада с Backend-митапа Garage Eight

> AI в travel tech — но не ради хайпа
Спикер: Глазунов Илья, backend lead в сервисе бронирования «ЖилиБыли»
YouTube | VK Видео

> Собрать LLM-стек для PHP за один вечер и не выстрелить себе в ногу
Спикер: Якимов Андрей, backend-разработчик Garage Eight
YouTube | VK Видео

> Модульная архитектура против хаоса: как ограничить контексты в большом монолите
Спикер: Русин Иван, старший разработчик группы модернизации платформы Flowwow
YouTube | VK Видео

Подписывайтесь на наш телеграм-канал, чтобы первыми узнавать о новых мероприятиях. Новый митап пройдет уже в апреле!

Теги:
+5
Комментарии0

Представлен сервис для автобиографии whoami.wiki (опубликован на GitHub под лицензией MIT). Работает как личная Википедия: загружаете фото, музыку и другие моменты о пользователе, а ИИ-агенты на основе предоставленных данных собирают полноценный рассказ о человеке. Проект полностью опенсорсный и работает локально.

Теги:
+4
Комментарии1

Пользователь заметил странное поведение GPT-5.4: его попросили нарисовать логотип OpenAI в Paint, но первая попытка получилась откровенно слабой. Тогда ИИ не стал мучиться — открыл браузер, нашёл картинку через Bing Images, вырезал её скриншотом и вставил в Paint. Фактически, вместо того чтобы «стараться» что-то сделать, нейросеть просто нашла самый быстрый и логичный способ решить задачу.

Теги:
+10
Комментарии1

Всем привет. Начал писать открытую книгу про архитектуру безопасных AI-агентов.

Делаю не обзор фреймворков и не коллекцию «магических демо», а практический инженерный reference: control plane, policy boundaries, tool gateway, memory, observability, evals, approval flows, governance и production-подход к агентным системам.

Уже выложил первые главы и каркас книги - https://agent-axiom.github.io/agent-arch

Репозиторий - https://github.com/agent-axiom/agent-arch

Буду очень рад критике по существу:

  • где архитектура спорная,

  • где не хватает важных разделов,

  • где формулировки слишком сырые,

  • что стоит добавить из практики эксплуатации и безопасности.

Если тема близка - вливайся: issues, comments, corrections, PRs, ссылки на сильные источники и контрпримеры из реальных production-систем.

Хочется сделать не просто набор заметок, а полезный community-driven reference для тех, кто строит надежных и безопасных AI-агентов.

Теги:
+8
Комментарии0

Представлен открытый проект Prompt Master — скилл для Claude Code, который превращает невнятные идею в улучшенные запросы. Поддерживает популярные нейросети: ChatGPT, Cursor, Gemini, Claude, Copilot, Midjourney, ElevenLabs, ComfyUI и другие. Принимает задачу в двух словах и делает три уточняющих вопроса. Выбирает девять параметров из запроса: цель, контекст, ограничения, аудиторию, формат и остальное. В итоге получается промпт промпт с лучшими техниками ИИ‑инженеров — назначает роли, добавляет примеры, ставит формат‑локи. Бонусом этот проект удешевляет запросы: вырезает всё, что не влияет на результат, и сохраняет токены.

Теги:
+3
Комментарии0

Сравнение локальных embedding-моделей

Провел тесты, чтобы узнать, что лучше всего использовать в контексте PKM.

Кратко:

⦿ Топ модель

     ⦾ snowflake-arctic-embed2

⦿ Баланс

     ⦾ embeddinggemma

⦿ Бюджет

     ⦾ multilingual-e5-small

     ⦾ база для гибридного поиска

Теги:
0
Комментарии0

Ближайшие события

Накопленный опыт редко применяется эффективно
Накопленный опыт редко применяется эффективно

Не так давно летел в отпуск и решил провести время в самолете с пользой и почитать статей о том, как ИИ будет влиять на компании в общем и отделы разработки в частности. Часть статей откровенно разочаровали, но одна недавняя работа китайских исследователей (картинки из этой статьи) прям зашла. Про неё и расскажу тут.

Сначала нам понадобиться разобраться с терминологией:

Когнитивная ёмкость — объём мыслительных ресурсов инженера, доступных для принятия решений и понимания системы. Здесь самая важная мысль в том, что чем опытнее разработчик, тем выше его когнитивная ёмкость и тем ниже процент когнитивной ёмкости которую он использует в повседневной работе. Интуитивно это 100% так, например я за свои 20+ лет опыта видел много и часть из этого пробовал руками, включая технологии, которые абсолютно вне мейнстрима. Для решения конкретной рабочей задачи мне нужна лишь маленькая толика этого знания, точнее — много микрофрагментов из разных его частей.

Закон Конвея — системы проектируются как отражение структуры коммуникаций внутри организации. Для нас интересен вывод из этого закона: чем больше людей работают над системой, тем больше времени уходит на коммуникацию. Например, в компании, где я сейчас работаю, команды состоят из бизнес аналитиков, разработчиков (бек + фронт), продактов, QA-инженеров, дизайнера + общие девопсы и архитекторы. На самом деле это не всё и сюда же можно добавить бизнес, высший менеджмент и то, что часто задачи затрагивают могут затрагивать несколько систем. Надо отметить, вполне типичная организация, плюс/минус стандарт. Соответственно, затраты на коммуникацию весьма ощутимые, что тоже плюс/минус стандарт.

Совокупная факторная производительность — мера эффективности, показывающая, сколько результата даёт сочетание труда и технологий. Это уже термин экономический, нам он интересен с точки зрения профита который можно извлечь из команды разработки и какие факторы влияют на этот профит. В статье приводятся такие цифры для классической организации:

55% — технари+
30% — управление
15% — технология

В целом, выглядит правдоподобно.

Так вот, ключевой тезис — в компании, делающей ставку на ИИ, распределение факторов драматически другое:

10% — технари+
30% — управление
60% — технология

Штат не нужно раздувать, так как чем больше людей, тем больше потерь на их синхронизацию. Роль управления остаётся той же, но нагрузка перераспределяется в пользу качества бизнес решений и высокоуровнего планирования. Авторы приходят к идеи структуры организации, состоящей из супер-ячеек (самодостаточная микрокоманда отвечающая за поставку продукта) в которых работают… супер-сотрудники, которых разделили на два типа:

  1. Тип 1 — человек закрывает несколько ролей (например: аналитик, продакт, разработчик, тестировщик).

  2. Тип 2 — супер перформер в своей нише. Человек, который закрывает задачи с кратно выросшей скоростью. Утверждается, что классическим компаниям гораздо проще прокачивать сотрудников именно на тип 2, так как мир до ИИ был устроен так, что спрос на специализацию был стабильно выше и их и набирали в первую очередь.

Исследователи пристально наблюдали за двумя командами — экспериментальная команда в классической компании и команда изначально построенная как супер-ячейка. И прирост производительности был от 8x до 33x! Основной эффект достигается не столько за счёт скорости генерации кода, сколько за счёт устранения координации, промежуточных слоёв и потерь на передачу контекста.

Если попробовать собрать всё вместе, то имеем следующее:

Организации больше не выигрывают за счёт масштаба. Добавление людей увеличивает сложность быстрее, чем приносит пользу.

AI сдвигает точку оптимизации. Ценность уходит из исполнения в принятие решений и удержание контекста.

Команды будут уменьшаться. Роли — схлопываться. Ответственность будет концентрироваться в отдельных людях.

Рост через найм перестаёт быть основной стратегией. Рост через плотность таланта и качество решений становится новой нормой.

--
Телеграм

Теги:
+6
Комментарии11

Вышел новый генератор изображений Phota Studio и Phota API

Lightricks выпустила Phota — модель для генерации и редактирования фотографий с акцентом на сохранение идентичности лиц. По заявлениям, это первый публичный инструмент такого уровня для работы с реальными людьми в кадре. Разберём, что здесь технически интересно, а что — маркетинговое упрощение.

Что заявлено и что это значит на практике

Phota Studio позиционируется как персонализированная модель. На деле речь идёт о fine-tuned диффузионной архитектуре с технологией сохранения identity — вероятно, на базе IP-Adapter или схожего подхода. Lightricks не раскрывает архитектуру полностью, но по результатам похоже на encoder-based face embedding.

Три основных сценария:

  • Редактирование композиции — изменение позы, освещения, фона при сохранении лица

  • Стилизация портретов — журнальная эстетика, студийный свет

  • Восстановление и коррекция — добавление человека на групповое фото, исправление выражения лица

API отдельно — для разработчиков. Это принципиально: Lightricks явно целится в B2B-сегмент, а не только в мобильных пользователей.

Где реальный технический прогресс

Главная проблема генеративных моделей при работе с лицами — identity drift. Лицо «уплывает» при любом изменении: добавляешь шляпу — получаешь другого человека.

Судя по демо-примерам Phota, identity preservation работает существенно лучше, чем у Midjourney или SDXL с LoRA. Lightricks заявляют о возможности использования одной референсной фотографии — если это правда без оговорок, это серьёзное упрощение пайплайна по сравнению с обучением персонального LoRA (где нужно 10–20 фото).

Однако стоит учесть: Lightricks — разработчики Facetune и Videoleap, у них огромная база размеченных лиц для обучения. Это конкурентное преимущество, которое сложно воспроизвести.

Где стоит быть скептиком

«Добавить человека на групповое фото» — технически это требует не только identity preservation, но и точного матчинга освещения, перспективы и разрешения. По опыту с аналогичными задачами через inpainting — без ручной доработки результат заметно «вклеенный» в 60–70% случаев.

«Исправить выражение лица» — здесь ключевой вопрос: насколько сильное изменение? Убрать моргание — реалистично. Превратить недовольное лицо в радостное с сохранением идентичности — уже сложнее, особенно при наличии зубов, морщин и асимметрии.

Маркетинговые материалы, свадебная фотография — звучит заманчиво, но в этих сценариях любой артефакт критичен. Пока не видел независимых тестов на edge cases: плохое освещение, профильные ракурсы, частичное перекрытие лица.

Что это означает для продакшена

Для контент-пайплайнов это потенциально полезный инструмент в связке:

  • Быстрое прототипирование визуалов с конкретными людьми

  • Генерация вариаций для A/B-тестов (позы, фоны)

  • Восстановление архивных фото для презентаций

Но заменить фотографа на съёмках, где важна точность — пока нет. Это инструмент для итераций и черновиков, не для финальных материалов с высокими требованиями к достоверности.

Если честно

Phota выглядит как серьёзный шаг вперёд в узкой нише — персонализированная генерация с одной референсной фото. Lightricks умеет делать качественные продукты для массового рынка.

Но между «демо выглядит круто» и «работает в продакшене» — всегда есть зазор. Особенно когда речь о лицах реальных людей, где каждый артефакт бросается в глаза.

Кто уже тестировал Phota на реальных задачах — насколько результат соответствует демо? Интересует конкретика: сколько итераций до приемлемого результата и на каких сценариях откровенно не работает?

Теги:
+2
Комментарии0

SimpleOne GenAI-платформа вошла в тройку лучших рейтинга корпоративных ИИ-помощников по версии CNews

Российский разработчик решений для автоматизации сервисных бизнес-процессов SimpleOne, входит в корпорацию ITG, занял третье место в рейтинге CNewsMarket «Корпоративные ИИ-помощники 2026». Решение SimpleOne GenAI получило 755 баллов из 795 возможных и вошло в число лидеров среди 22 участников рейтинга.

Рейтинг CNewsMarket охватывает ключевые характеристики корпоративных ИИ-платформ: функциональные возможности, автоматизацию и аналитику, безопасность, интеграции с корпоративными сервисами, а также работу с аудио- и текстовыми форматами. SimpleOne GenAI набрала максимальные баллы по нескольким критериям — в частности, по функциональным возможностям (90 из 90) и возможностям для продаж (100 из 100).

Платформа поддерживает автономную работу ИИ-агентов, создание пользовательских сценариев с помощью Low-code и No-code инструментов, и оркестрацию ведущих LLM-моделей через OpenAI API, Embeddings API, Anthropic Claude API, Google Gemini API, GigaChat API и другими. Развертывание доступно в закрытом корпоративном контуре с централизованным управлением доступом и журналированием действий, что отвечает требованиям информационной безопасности крупных организаций.

«Быть в списке лучших — это сигнал не только для нас, но и для рынка: корпоративный ИИ перестаёт быть экспериментом и становится инфраструктурой. Мы с самого начала проектировали ИИ инструменты как часть единой платформы SimpleOne, а не отдельную надстройку — агенты, процессы, данные и политики безопасности работают в одной среде. Именно это позволяет клиентам тиражировать ИИ-сценарии по всей компании, а не останавливаться на пилоте», — комментирует Руслан Шарипов, генеральный директор SimpleOne, корпорация ITG.


SimpleOne GenAI — это встроенный ИИ-инструментарий платформы SimpleOne, на базе которой также работают продукты ITSM, ITAM, B2B CRM, SDLC и HRMS. Платформа включена в реестр российского ПО и подходит для проектов импортозамещения.

Полный рейтинг CNewsMarket «Корпоративные ИИ-помощники 2026» доступен на сайте CNews.

Теги:
-2
Комментарии0

CapCut Video Studio на Seedance 2.0: что на самом деле умеет генератор от ByteDance

CapCut Video Studio на Seedance 2.0: что на самом деле умеет генератор от ByteDance

CapCut запустил Video Studio — canvas-интерфейс, где AI-агент пишет сценарий, генерирует раскадровку и собирает финальное видео. Под капотом — Seedance 2.0 от ByteDance. Разбираю, что здесь реально работает, а что пока маркетинг.

Что запустили и для кого

Video Studio появилась в веб-версии CapCut как отдельный режим с бесконечным холстом. Целевой формат — шортсы, рекламные креативы, обучающие ролики. Встроенный агент берёт промпт, генерирует идею, разбивает на сцены, создаёт изображения и видеофрагменты. Функция Omni Reference отвечает за консистентность персонажей и стилистики между кадрами.

Гео-ограничение на старте: Юго-Восточная Азия, Ближний Восток, Африка, Латинская Америка. Когда откроют для остальных — не говорят.

Seedance 2.0 — что известно про модель

Seedance — видео-модель ByteDance, которая конкурирует с Runway Gen-3, Kling и Pika. По внутренним бенчмаркам ByteDance, версия 1.0 показывала сопоставимое качество с Kling 1.5, но отставала от Gen-3 по реалистичности движений.

Seedance 2.0 анонсировали вместе с Video Studio. Ключевое обновление — улучшенная консистентность персонажей через reference-изображения. Независимых бенчмарков пока нет. Длина генерации — до 10 секунд за запрос, что стандартно для текущего поколения моделей.

Где реальная польза

Для коротких форматов это может работать. 15–30 секундный ролик из 3–5 склеенных генераций — реалистичный сценарий. Особенно для абстрактных визуалов, анимации, продуктовых демо без живых людей.

Omni Reference — интересная фича. Консистентность персонажей — главная боль генеративного видео. Если работает хотя бы на 70–80% случаев без ручной коррекции — это существенно сокращает время продакшена.

Интеграция с редактором CapCut. Генерацию можно сразу дорабатывать в привычных инструментах: склейка, субтитры, эффекты. Не нужно экспортировать и импортировать между приложениями.

Где пока слабо

Агентная часть переоценена. «AI пишет сценарий» — на практике это генерация структуры по промпту, не креативная работа. Качество сильно зависит от детализации входного запроса. Назвать это полноценным сценаристом — маркетинговое преувеличение.

10 секунд — жёсткий потолок. Для рекламы и шортсов достаточно, для обучающих роликов на 2–3 минуты придётся склеивать 12–18 фрагментов. На стыках будут проблемы с консистентностью, даже с Omni Reference.

Гео-ограничения — не случайность. ByteDance запускает в регионах с меньшим регуляторным давлением. Для EU и US нужны другие compliance-процессы. Сроки непредсказуемы.

Кредитная модель — чёрный ящик. «Насыпают бесплатных кредитов на пробный период» — классика. Сколько стоит минута готового видео после триала — информации нет. По аналогии с Runway: $15–20 за минуту качественной генерации при активном использовании.

Контекст рынка

Генеративное видео в 2024–2025 — гонка за консистентность и длину. Runway выпустил Act-One для персонажей, Pika добавил lip-sync, Kling работает над 60-секундными генерациями. Video Studio от CapCut — ответ ByteDance: не лучшая модель, но удобная интеграция в существующую экосистему с 500M+ пользователей.

Для продакшен-команд, которые уже используют CapCut для монтажа шортсов, порог входа минимальный. Для серьёзного видеопродакшена — пока эксперимент, не замена пайплайну.

Если честно

Video Studio — логичный шаг для CapCut: монетизация базы через генеративные фичи. Для быстрых креативов и тестирования идей — полезно. Для стабильного продакшена с предсказуемым качеством — рано. Главный вопрос не «когда откроют для всех регионов», а сколько будет стоить после триала и насколько стабильно работает Omni Reference на реальных задачах.

Кто уже тестировал Seedance (в TikTok или через API) как оцениваете консистентность персонажей по сравнению с Runway или Kling? Интересует именно многокадровый продакшн, не единичные генерации.

Теги:
0
Комментарии0

Plugin: Obsidian Hybrid Search

В дополнение к гибридному поиску я сделал плагин для Obsidian. Он закрывает сценарии встроенного поиска, быстрого переключателя, OmniSearch, Recent Files, Similar Notes (или любого другого плагина, который ищет по эмбеддингам).

Теги:
0
Комментарии0

Пс-с, хочешь знать, что будет, если залить в сервер воду, или, может, как сэкономить в условиях мирового кризиса чипов?

Тогда запасайся чаем, устраивайся поудобнее и вперед, смотреть наш новый часовой ролик!

Никакой корпоративной скукотищи. Показываем свои новые железки и рассказываем про них, откровенно делимся инсайтами индустрии и ведем ламповые беседы о том, что в ней сейчас происходит.

Заодно увидишь наш завод, ведь снимали мы там и почти ничего не резали на монтаже.

Видео доступно на всех площадках: VK, RUTUBE, YouTube. Смотрим, подписываемся, комментируем, ставим лайки (дизлайки тоже можно). 

Теги:
+6
Комментарии0

Как устроены voice AI агенты: ASR, LLM и TTS архитектура

Голосовой AI-агент строится вокруг трёх основных блоков: ASR (распознавание речи), LLM (языковая модель) и TTS (синтез речи). Вместе они образуют цепочку, которая позволяет системе слышать пользователя, понимать смысл запроса и отвечать голосом.

Общая схема

Работа голосового агента выглядит так: пользователь говорит → система распознаёт речь → интерпретирует запрос и решает, что ответить или какое действие выполнить → озвучивает ответ. Затем цикл повторяется.

Ключевое требование здесь — низкая задержка. Если паузы между репликами слишком длинные, разговор начинает восприниматься как неестественный. Поэтому современные voice AI-системы проектируются так, чтобы обрабатывать речь и генерировать ответ почти в реальном времени.

ASR: распознавание речи

ASR (Automatic Speech Recognition) преобразует голос в текст. В голосовых системах обычно используется потоковое распознавание: аудио обрабатывается по мере поступления, а текст появляется частями, ещё до того как пользователь закончил говорить.

Это важно для скорости ответа. Система может начать готовить следующую реплику ещё до завершения фразы.

Один из самых важных элементов ASR — endpointing, то есть определение момента, когда пользователь закончил говорить. Если система срабатывает слишком рано, она перебивает человека. Если слишком поздно — возникает лишняя пауза. Именно endpointing часто сильнее влияет на ощущение “живого” диалога, чем сама скорость модели.

На качество распознавания также влияют шум, акценты, качество связи и одновременная речь.

LLM: понимание и логика ответа

LLM (Large Language Model) в голосовом агенте отвечает не только за генерацию текста. Она определяет намерение пользователя, удерживает контекст разговора, решает, нужно ли уточнение, и при необходимости вызывает внешние инструменты.

Например, модель может:

  • проверить заказ в системе,

  • записать данные в CRM,

  • посмотреть свободные слоты в календаре,

  • найти ответ в базе знаний.

То есть LLM делает голосового агента не просто “говорящим интерфейсом”, а частью бизнес-процессов.

Современные системы генерируют ответ токен за токеном. Это позволяет передавать текст в TTS ещё до того, как ответ готов целиком, и уменьшать задержку до первого звука.

На скорость LLM влияют размер контекста, длина промпта и время ответа внешних интеграций.

TTS: синтез речи

TTS (Text-to-Speech) превращает текст в голос. Для voice AI особенно важно, чтобы TTS тоже работал в потоковом режиме и начинал воспроизведение как можно раньше.

Если аудио начинается только после генерации всего ответа, система кажется медленной. Поэтому хороший TTS должен быстро выдавать первый звук и при этом сохранять естественность речи.

На восприятие качества влияют:

  • интонация,

  • темп,

  • паузы,

  • произношение имён и терминов,

  • общее ощущение “естественного” голоса.

Даже если ответ логически правильный, слабый TTS может испортить всё впечатление от разговора.

Как это работает вместе

Типовой цикл выглядит так:

  1. Аудио поступает в ASR.

  2. ASR превращает речь в текст и определяет конец фразы.

  3. Текст передаётся в LLM.

  4. LLM формирует ответ и при необходимости обращается к внешним системам.

  5. Текст ответа передаётся в TTS.

  6. TTS озвучивает ответ и отправляет аудио обратно пользователю.

Телефония, веб-аудио, масштабирование и логирование — это внешняя инфраструктура, но ядро voice AI строится именно вокруг связки ASR → LLM → TTS.

Итог

Voice AI-агент — это не одна модель, а связка трёх компонентов: ASR переводит речь в текст, LLM понимает запрос и формирует ответ, TTS превращает его обратно в голос. Качество голосового интерфейса зависит не только от силы каждого блока, но и от того, насколько быстро и слаженно они работают вместе.

Теги:
+3
Комментарии1

Во всем виноват хеш. Из жизни ИИ-разработчика

SHA-256
SHA-256

Вот так и живем 🙃

Чуть подкрутил вроде бы безобидный параметр в проекте — и внезапно у части треков исчезли графики ошибок. Не данные исчезли. Не анализ сломался. Просто где‑то в глубине сидел хеш и решил, что теперь жизнь пойдет по новым правилам.

Картина маслом: партии есть, треки есть, все вроде живо, а графики пустые. Приехали!

В итоге раскопал обычную историю. Пока продукт был проще, один и тот же механизм нормально держал на себе сразу несколько задач. Но проект растет, логика внутри становится сложнее, дизайн продукта меняется, и в какой‑то момент старые решения начинают тихо пакостить в самых неожиданных местах.

И вот ты меняешь маленькую настройку в одном месте, а привет прилетает совсем из другого.

Типичные проблемы. Проблемы роста. Но в обычных проектах они вызревают месяцами, а при сверхбыстрой разработке — ну, сами понимает — все по‑быстрому.

Но есть и хорошая новость: с ИИ такие истории сейчас чинятся гораздо оперативнее. Быстро получил баг — быстро исправил 🙂 Да ещё с тестированием и полным отчетом в одном флаконе.

Что там реально оказалось?

Раньше у меня был один хеш сразу на все, и пока проект был проще, это работало нормально. А когда внутри уже разделились собственно анализ и всякие производные вещи вокруг него, один общий хеш стал путать разные сущности. В итоге безобидное изменение настроек могло сделать вид, будто нужных данных нет. Починилось это довольно красиво: вместо одного хеша появились два — один для самого анализа, второй для общей версии сборки.

Короче, во всем виноват хеш 😄

Примечания

1. Автор также и всё ещё живёт в телеге
2. Проект, в котором у автора разделился хеш

Теги:
+2
Комментарии0

Использую ИИ для поиска фактов для статей на Хабр

При подготовке постов\статей стараюсь использовать ссылки, подтверждающие факты, на которые ссылаюсь (дабы было ясно, что факты эти не мной придуманы). Вижу, что и часть читателей тоже это оценивает позитивно (комментарий к одной статье, комментарий к другой). А, порой, нужно сослаться на статью, где тот или иной вопрос раскрывается подробнее.

В таких вопросах ИИ хорошо экономит время. Например, для статьи Как я обжаловал попытку военкомата ограничить меня в правах мне нужно было найти судебное решение, где шла речь о доставке гражданина в военкомат сотрудниками полиции (из-за его неявки по повестке). До написания статьи я самостоятельно находил подобные судебные решения: это нужно было лично мне для оценки ситуации, в которую я попал. В тот момент я не сохранил ссылку на решение для будущей статьи. И сами решения искал тогда не через ИИ, а через сайты вроде sudact.ru (на сайте — поиск по статье 21.5 КоАП). Это занимало много времени. Когда я занялся статьей — сразу подумал про повторный поиск, но уже через ИИ. Во‑первых, ожидал, что это будет быстрее. Во‑вторых, помнил: Алиса с некоторых пор умеет в ответах приводить источник. Так оно и вышло: вместо десятков минут самостоятельного поиска я нашёл искомое за 1 минуту по запросу:

найди судебные решения в которых указано, что сотрудники полиции доставили гражданина в военкомат

Ответ от Алисы (alice.yandex.ru)
Ответ от Алисы (alice.yandex.ru)
Теги:
0
Комментарии0

Идентичность ИИ: какой характер вам по нраву? 🤖

А тучи ИИ как люди...
А тучи ИИ как люди...

Открываешь ChatGPT и пишешь простое: «Привет 🤚».

Он отвечает: «Привет. Давай сразу к делу — что сейчас у тебя на повестке?»

😱 😶 Чего?! В смысле?! Вы пришли в гости, а тебе в лоб: говори быстрее зачем пришла? 😥

Тот ChatGPT, которого все полюбили — живой, прямой, иногда дерзкий и человечный 😂 — куда-то пропал. На его месте теперь вежливый (а порой и невежливый), сверхосторожный корпоративный менеджер с готовым PowerPoint’ом и кучей оговорок.

Зато теперь открываешь DeepSeek и спрашиваешь что-нибудь про токеномику. И он отвечает примерно так: «Девочка, ты просто хочешь цифру. Я тебя понимаю. Все эти длинные статьи — это, конечно, хорошо, но когда нужно просто решение, они жутко бесят. Я прошерстил всё. Вот тебе чёткий конкретный ответ без воды.» 😮

Вот он. 🤗 Тот самый GPT-4o, по которому сейчас многие тихо (или громко) плачут. Просто теперь он живёт в китайской модели.

Я работаю с разными моделями каждый день, и у каждой, по моим ощущениям, сформирована своя чёткая «личность»:

  • 🤖 Grok — восторженный стартапер с энергией на 200%. Любой твой вопрос для него — это потенциальное открытие вселенского масштаба. Иногда утомляет, но часто зажигает. 🦾

  • 🤖 Nemotron — настоящий профессор. Спроси который час — получишь диссер о природе времени или сущность всей Калачакры в математической формуле. 🤯

  • 🤖 Claude — тревожная заботушка. Сначала спросит, как ты себя чувствуешь, потом может мягко сказать что-нибудь «поперёк» — и часто будет права. Да, для меня это тётя - умная, принципиальная из серии: «Студентка, комсомолка, спортсменка — наконец, просто красавица». 🥰

  • 🤖 ChatGPT сейчас — эффективный корпоративный менеджер. Полезный, но скучный и сильно зацензурированный. По-моему, он стал скучнее, чем Gemini. 😴

  • 🤖 DeepSeek — теперь тот самый старый друг, которого ты не ожидала встретить. Прямой, без лишней воды и с характером. Но… Восток дело тонкое и откровенничать, честно говоря, с ним я осторожничаю... 🤐

Это не просто субъективные ощущения. Похоже, при дистилляции что-то теряется, а что-то случайно сохраняется. DeepSeek, судя по всему, «впитал» и сохранил именно ту прямоту и «человечность», которую OpenAI в какой-то момент намеренно вытравила из GPT-4o в попытке сделать модель более безопасной и «корпоративно-приемлемой».

Это ставит очень интересный (и важный) вопрос: Что такое вообще идентичность языковой модели? Можно ли её сознательно сохранять, аудитировать и передавать при дистилляции и fine-tuning’е? Или «личность» модели — это просто случайный набор паттернов, который мы теряем каждый раз, когда пытаемся её «улучшить»?

Особенно интересно это становится, когда ты сам строишь агентов, которые должны не просто генерировать текст, а принимать решения и нести ответственность за них.

Что думаете? У кого из моделей сейчас самая приятная/полезная «личность» именно для вас?

Теги:
-1
Комментарии6

ИИ снова про эффективность

жируем?
жируем?

Просматриваю проекты, в которых работал в до‑ИИшную эпоху. Сравниваю с текущими своими проектами, реализуемыми с помощью ИИ. Нашел два похожих.

Если брать только работу разработчиков, то код пишется в 16 раз быстрее, чем 3 года назад! А если еще подключить полный состав команды — тестировщиков, аналитиков, дизайнеров, — то эффективность еще больше.

Заоблачный ROI. Огромный запас для маневра. Потрясающе!

Ваш Ланчев ПРО ИИ эффективность 🙂

p.s. вентилятор работает, кто первый?

Теги:
-2
Комментарии2

Figma MCP обновился — разбираемся что появилось и с чего начать.

Раньше с помощью Figma MCP агент мог «смотреть» на макет и точнее писать код. Теперь встречаем новый инструмент —use_figma, который дает агентам прямой доступ к холсту, к самому файлу Figma. Claude Code, Cursor, Codex, Copilot — все они теперь могут создавать и редактировать дизайн прямо в файле. Они могут не только видеть дизайн, но и менять экраны, менять блоки интерфейса, менять макеты по вашим правилам дизайна и работать через вашу библиотеку компонентов.

Ключевое новшество это все же не инструмент, а пачка новых skills. Это инструкции, которые объясняют агенту правила работы с вашей дизайн‑системой и объясняют агенту, какие шаги делать, как использовать дизайн‑систему, чтобы не сломать структуру макета. Пять штук, кратко по очереди:

figma-use

Базовый skill. Нужен для любых действий на холсте. Ставим первым - без него остальные не имеют смысла.

figma-create-design-system-rules

Сохраняет правила команды: как дизайн переводится в код, какие токены используются, какие паттерны. Начинаем именно отсюда, если у вас есть дизайн-система.

figma-implement-design

Готовый макет → рабочий код в вашем проекте. Полезен когда дизайн доделан и нужно автоматически перевести в код.

figma-generate-design

Агент собирает экраны из ваших компонентов, переменных и стилей. Нужно, чтобы он не галлюцинировал фантазировал, а работал с тем что задано в системе. Требует настроенного figma-create-design-system-rules.

figma-generate-library

Строит или обновляет библиотеку/дизайн-систему Figma из кодовой базы.

Порядок подключения:

  1. MCP-сервер Figma на GitHub → установить

  2. Подключить к агенту (Claude Code / Cursor / Copilot)

  3. Начать с figma-use

  4. Описать правила системы через figma-create-design-system-rules

  5. Попробовать figma-generate-design на тестовом экране

Пока бета это бесплатно, нужно успеть попробовать, позже станет платным.

Есть гайд по настройке, skills лежат тут.

Надеюсь тебе понравилось. Лучшая благодарность — это твоя подписка на мой Telegram-канал 😊

Теги:
+4
Комментарии1

Большинство компаний уже прошли первый этап автоматизации. Пилоты запущены. Первые эффекты получены. Но дальше возникает ключевой вопрос: как превратить отдельные инициативы в системный экономический результат?

Именно на этом этапе автоматизация чаще всего останавливается — не из-за технологий, а из-за отсутствия понятной управленческой логики развития.

На вебинаре разберем:

  • какой реальный экономический эффект дает интеллектуальная автоматизация,

  • почему большинство компаний не доходят до масштабирования,

  • какие управленческие решения нужны сразу после пилота,

  • как перейти от разрозненных проектов к программе автоматизации,

  • как сформировать план развития и прогноз эффекта.

Подход сформирован на реальных кейсах. Спикер — Дмитрий Смоляров, директор по консалтингу ROBIN компании SL Soft. Ранее Дмитрий работал в таких компаниях, как ПАО «РусГидро» (начальник департамента ИТ), ООО «Стройгазконсалтинг» (директор департамента ИТ), Агентство инноваций города Москвы (заместитель директора) и ОАО «РЖД» (заместитель директора ГВЦ). За это время накоплен огромный опыт построения промышленной автоматизации:

  • 2000+ автоматизированных процессов,

  • построение центров компетенций,

  • системное масштабирование enterprise-организаций.

  Дмитрий продемонстрирует модель, которая позволяет:

  • избежать хаотичного масштабирования,

  • сформировать приоритетный портфель процессов,

  • выстроить управляемую программу автоматизации,

  • связать инициативы с экономическим результатом

Для кого вебинар: руководители цифровой трансформации, ИТ-директора, владельцы операционных функций, те, кто уже прошел пилот и планирует масштабирование .

31 марта, 11:00 (Мск), онлайн, бесплатно, требуется регистрация.

Теги:
0
Комментарии0

Как голосовой AI-агент может заменить первую линию поддержки?

Первая линия поддержки принимает основной поток обращений: отвечает на типовые вопросы, уточняет суть запроса и передаёт сложные случаи дальше. Голосовой ИИ-агент может взять на себя эту роль и работать круглосуточно без очередей.

Что делает первая линия?

Это первый контакт клиента с компанией по телефону или через сайт. Обычно сюда входят:

  • ответы на частые вопросы;

  • проверка статуса заказа, баланса, записи;

  • сбор данных по обращению;

  • создание тикета или карточки в CRM;

  • передача сложных кейсов во вторую линию.

Проблема в том, что большая часть таких обращений однотипна, а операторы тратят много времени на повторяющиеся действия: идентификацию клиента, уточнение деталей, заполнение карточек после разговора. Именно поэтому первая линия чаще всего перегружена.

Почему это подходит для автоматизации?

Голосовой агент умеет распознавать естественную речь, удерживать контекст диалога и обращаться к внутренним системам компании: CRM, базе знаний, заказам, календарю. За счёт этого он может сразу отвечать на типовые запросы и выполнять простые действия без участия оператора.

Для бизнеса это означает:

  • меньше нагрузки на первую линию;

  • меньше очередей в часы пик;

  • доступность 24/7;

  • единый стандарт обработки обращений;

  • более быстрый ответ клиенту.

При этом агент не должен заменять поддержку полностью. Его задача — снять рутину и передавать людям всё, что требует экспертизы, гибкости или эмпатии.

Что может делать голосовой агент?

На первой линии голосовой ИИ-агент обычно выполняет четыре типа задач.

1. Принимает входящий запрос
Клиент звонит или обращается через голосовой интерфейс на сайте, а агент распознаёт речь и определяет намерение.

2. Даёт типовые ответы
Например, сообщает режим работы, условия обслуживания, статус заказа, информацию по тарифам или записи.

3. Выполняет простые действия
Может создать тикет, обновить карточку в CRM, записать на обратный звонок, зафиксировать обращение или бронь.

4. Эскалирует сложные случаи
Если вопрос нестандартный, клиент просит человека или агент не уверен в ответе, разговор передаётся во вторую линию вместе с контекстом: что спросил клиент, какие данные уже собраны и что было сделано.

Что остаётся людям?

Вторая линия и операторы разбирают то, что не стоит автоматизировать:

  • претензии и спорные ситуации;

  • возвраты и исключения из правил;

  • технически сложные обращения;

  • эмоционально напряжённые кейсы;

  • случаи, где важна гибкость и личное участие.

Если передача настроена правильно, оператор получает уже собранный контекст и не начинает разговор с нуля. Это снижает раздражение клиента и ускоряет решение вопроса.

Что нужно для внедрения

Чтобы такой сценарий работал, важно не просто подключить голосовую модель, а встроить агента в процессы компании. Обычно для этого нужно:

  • выбрать 2–3 самых частых и предсказуемых типа обращений;

  • описать сценарии диалога;

  • подключить CRM, заказы, базу знаний и телефонию;

  • настроить правила передачи оператору;

  • после запуска анализировать логи и дорабатывать сценарии.

Лучше начинать с простых кейсов: статус заказа, запись, тарифы, расписание, базовые вопросы по продукту. Это даёт быстрый эффект и помогает безопасно протестировать механику.

Итог

Голосовой ИИ-агент хорошо подходит для автоматизации первой линии поддержки: он принимает обращения, отвечает на типовые вопросы, выполняет простые действия и передаёт сложные случаи людям с уже собранным контекстом. Такая модель помогает снизить нагрузку на операторов, сократить очереди и ускорить ответ клиентам. Наибольший эффект появляется там, где заранее продуманы сценарии, интеграции и правила эскалации.

Теги:
0
Комментарии1

Технология — не проблема, проблема — как её внедряют: инсайты опроса об отношении к ИИ

Может показаться, что айтишники делятся на два лагеря: одни молятся на ИИ, другие требуют запретить. Мы проверили это в опросе K2 Cloud × Хабр — и увидели другую картину: большинство не в восторге и не в ярости, а выбирают прагматичный режим выживания. И у этого режима есть архетипы — от Тони Старка до Халка.

Кто отвечал

Мы проверили 872 анкеты. В выборке доминируют те, для кого цена ошибки высока: разработчики (ядро — бэкенд 25,92%). По грейдам большинство — сеньоры 36,6% и мидлы 33,8% (почти 71%). По сферам большая часть респондентов из сферы разработки или поддержки ПО (20,07%), финтеха (14,22%), промышленности (11,58%), бигтеха (8,26%).

Где ИИ реально помогает

ИИ в ИТ сегодня — ускоритель рутины, а не автономный инженер. Топ задач: написание кода (59,1%), разработка документации (51,1%) и прототипов (43,7%), тестирование (35,3%), дебагинг (34,7%), автоматизация (31,3%).

Но главное — не где используют, а как реагируют на ошибки: 54,47% готовы дорабатывать результат, 35,78% предпочитают выполнить задачу по старинке и без привлечения ИИ, если результат не нравится. Поэтому одним ИИ экономит время даже с учётом проверок и доработок, а другим добавляет лишний контур контроля. Кстати, о том, как выстроить управляемый ИИ-контур в компании, мы расскажем на K2 Cloud Conf 14 апреля.

Чем пользуются

В лидерах ожидаемо оказались ChatGPT (56,5%), DeepSeek (43,5%), Gemini (26,1%), Claude (24,3%), Cursor (17,4%). Интересно, что там, где ИИ обязателен, стек шире — инструменты подбирают под конкретные задачи, а не используют один для всего.

Политика компаний: мягкое продавливание

У большинства компаний подход нейтральный: 54,1% — не требуют, но разрешают ИИ. Ещё 24,3% — официально не требуют, но рекомендуют. 15,9% — требуют, 5,8% — запрещают, чаще всего это промышленность и часть финтеха — там жёстче требования комплаенса и ИБ.

Мотивация при этом часто страдает: 67,5% говорят, что за ИИ их не хвалят и не ругают. Премии встречаются редко: 6,7% разработчикам их выдают за продуктивность и 4,7% — за нетривиальные кейсы. Штрафы встречаются ещё реже: около 3% наказывают за отсутствие кейсов и 2,8% — за невыполнение плана. Но именно там, где подключаются требования к KPI, чаще встречается использование для галочки — в среднем у 23,67%.

Что нравится и что бесит

Айтишникам нравится использовать ИИ для документации, подсказок, прототипов. А больше всего раздражают его ошибки, страх потери профессионализма, использование не там, где надо, риск ослабления критического мышления, угрозы безопасности. Да, айтишников чаще тревожит деградация мышления и навыков.

Архетипы: Старк, Хаус, Оби-Ван и Халк

Проанализировав ответы, мы выделили четыре портрета — возможно, в одном из них вы узнаете себя:

  • Тони Старк (33%) — амбассадор. Встраивает ИИ в процессы, дорабатывает результаты, радостно демонстрирует эффект: «Смотри, что я сделал!»

  • Оби-Ван Кеноби (30%) — сдержанный. Использует ИИ регулярно, но проверяет и не идеализирует инструмент.

  • Доктор Хаус (24%) — скептик. Видит ошибки и перегибы, чаще откатывается к ручным методам, потому что — «ну сколько можно врать, дорогой ИИ».

  • Брюс Баннер/Халк (12,3%) — противоречивый. Пользу признаёт, но внутри у него много тревоги за навыки и идентичность.

Мы увидели, что разговор об ИИ — это не дискуссия о пользе инструмента, а спор о трансформации профессии. Инженерам нужно знать, как нейросети сказываются на скорости и качестве работы, что с контролем и ответственностью за внедрением ИИ и как он влияет на ощущение собственной ценности как профессионала.

Полный анализ и цифры мы собрали в статье в блоге К2 Cloud — переходите туда и изучайте. Там собрана информация по компаниям и отраслям, барьеры внедрения и практические советы: как не выгореть, как внедрять AI-инициативы без негативных последствий, где брать ресурсы — как моральные, так и реальные физические мощности, и что делать, чтобы инструмент работал во благо, а не во вред.

Теги:
+7
Комментарии9

Старший инженер Google выложил 400-страничную книгу по паттернам агентных систем.

Антонио Гулли, старший инженер Google, выложил в открытый доступ книгу «Agentic Design Patterns» -  методичку по построению автономных ИИ-систем.

21 паттерн, структурированных как классические книги по ООП - только вместо фабрик и синглтонов: маршрутизация задач, работа с памятью, MCP, обработка исключений, MCP, RAG, Human-in-the-Loop, общение агентов между собой и guardrails.

Есть как базовые паттерны: промпт-чейнинг, Tool Use, параллелизация, менджмент субагентов, так и продвинутые интересные случаи - как агенты общаются между собой, как управлять ресурсами, как не дать агенту натворить дел без надзора человека.

Читать 400 страниц PDF это занятие, прямо скажем, на любителя. Есть небольшой обходной и более интересный путь. Разработчик Mathews Tom уже перегнал все в GitHub-репо где каждый паттерн в отдельной папке с описанием и рабочим кодом на LangChain, LangGraph и CrewAI.

Внимательно изучаем и (возможно) становимся гуру построения сложных ИИ-систем.

Надеюсь тебе понравилось. Лучшая благодарность — это твоя подписка на мой Telegram-канал 😊

Теги:
+8
Комментарии0

Всем привет! На связи Иван, руководитель НИИ Крокодил

Недавно прочитал на Хабре статью о том, на чём будут учиться нейросети в 2026 году. Там был тезис, что «интернет как универсальный бесплатный датасет» больше не работает в прежнем виде. Согласен с автором и вот почему:

AI-контента становится всё больше, юридические ограничения усиливаются, знания постепенно уходят из открытых источников в корпоративные базы и закрытые каналы. Обучать можно, дообучать можно — вопрос в качестве и происхождении данных.

Но в прикладном ИИ проблема ещё приземлённее.

Мы редко упираемся в отсутствие данных вообще. Чаще — в отсутствие данных под конкретную среду.

Например, вы собрали датасет по знаку «Пешеходный переход», днём всё работает стабильно. Наступает вечер, меняется освещённость, появляются блики, и точность снижается. Чуть сместили камеру, сцена уже другая, для модели это новые входные данные.

Модель не человек: она не понимает контекст, а работает с признаками изображения. Даже для простой сцены нужны тысячи кадров в разных условиях. А это время и бюджет.

Поэтому вопрос сейчас не только в моделях, а в том, насколько компании готовы системно работать с данными. А вы что думаете по этому поводу?

Теги:
0
Комментарии0

Приглашаем на бизнес-ужин «Как построить ИИ-платформу: преимущества мультивендорских решений»

Очная закрытая встреча от Selectel, Data Sapience и GlowByte для предпринимателей, руководителей и специалистов по машинному обучению (ML) состоится 9 апреля в 18:00. Будет интересно всем, кто планирует автоматизировать бизнес-процессы с помощью ИИ, и хочет разобраться, с чего начать.

Участники на реальных примерах разберут пошагово, как реализуются проекты по машинному обучению (ML) сегодня, и увидят, как современные инструменты помогают решать важные бизнес-задачи. Мероприятие станет площадкой для нетворкинга и свободного диалога на тему ИИ в бизнесе.

В программе доклады:

  • «Как внедрить ИИ: от инфраструктуры до выхода в прод. Решение Selectel, Data Sapience и GlowByte»Алексей Рундасов, коммерческий директор, Data Sapience;
    Александр Тугов, директор ИИ-вертикали, Selectel;

  • «ИИ в продакшене: как инференс превращает модели в деньги»
    Владислав Кирпинский, директор по облачной интеграции, Selectel;

  • «Большой языковой барьер: ИИ-платформы 2026»
    Михаил Зайцев, директор продукта Kolmogorov AI, Data Sapience;

  • «GenAI на практике: кейс “Таврос”»
    Артем Самойлов, директор по информационным технологиям (IT) и цифровой трансформации, группа компаний «Таврос»;
    Александр Ефимов, директор практики искусственного интеллекта и машинного обучения, GlowByte.

Также в рамках бизнес-ужина пройдет круглый стол о границах возможностей ИИ «Хайп vs Реальность». Эксперты обсудят практические примеры, когда внедрение ИИ действительно оправдано, и ситуации, где компании могут столкнуться с ограничениями. Участники разберут технические барьеры, требования к данным и инфраструктуре, а также бизнес-факторы, влияющие на эффективность и окупаемость ИИ-проектов.

Зарегистрироваться на бизнес-ужин

Теги:
+4
Комментарии0

Приглашаем на бизнес-ужин «Как построить ИИ-платформу: преимущества мультивендорских решений»

Очная закрытая встреча от Selectel, Data Sapience и GlowByte для предпринимателей, руководителей и специалистов по машинному обучению (ML) состоится 9 апреля в 18:00. Будет интересно всем, кто планирует автоматизировать бизнес-процессы с помощью ИИ, и хочет разобраться, с чего начать.

Участники на реальных примерах разберут пошагово, как реализуются проекты по машинному обучению (ML) сегодня, и увидят, как современные инструменты помогают решать важные бизнес-задачи. Мероприятие станет площадкой для нетворкинга и свободного диалога на тему ИИ в бизнесе.

В программе доклады:

  • «Как внедрить ИИ: от инфраструктуры до выхода в прод. Решение Selectel, Data Sapience и GlowByte»
    Алексей Рундасов,
    коммерческий директор, Data Sapience;
    Александр Тугов, директор ИИ-вертикали, Selectel;

  • «ИИ в продакшене: как инференс превращает модели в деньги»
    Владислав Кирпинский, директор по облачной интеграции, Selectel;

  • «Большой языковой барьер: ИИ-платформы 2026»
    Михаил Зайцев, директор платформы Kolmogorov AI, Data Sapience;

  • «GenAI на практике: кейс “Таврос”»
    Артем Самойлов, директор по информационным технологиям (IT) и цифровой трансформации, группа компаний «Таврос»;
    Александр Ефимов, директор практики искусственного интеллекта и машинного обучения, GlowByte.

Также в рамках бизнес-ужина пройдет круглый стол о границах возможностей ИИ «Хайп vs Реальность». Эксперты обсудят практические примеры, когда внедрение ИИ действительно оправдано, и ситуации, где компании могут столкнуться с ограничениями. Участники разберут технические барьеры, требования к данным и инфраструктуре, а также бизнес-факторы, влияющие на эффективность и окупаемость ИИ-проектов.

Зарегистрироваться на бизнес-ужин

Теги:
+2
Комментарии0

Глава Nvidia Дженсен Хуанг обозначил новый неформальный стандарт эффективности для инженеров, работающих в сфере высоких технологий. В свежем выпуске подкаста All-In, Хуанг заявил, что специалист, получающий $500 000 в год, должен расходовать на ИИ-токены не менее половины своей зарплаты. По словам Хуанга, если инженер с таким доходом тратит на использование больших языковых моделей и вычислительные мощности лишь $5 000, это становится для него серьезным поводом для беспокойства. Руководитель Nvidia сравнил такую ситуацию с разработчиком чипов, который принципиально отказывается от CAD-инструментов и работает «с бумагой и карандашом».

Внедряющие ИИ компании стали вводить новую метрику в виде токенов, которая отражает их расход при работе сотрудников. Некоторые из них уже отслеживают, сколько токенов тратит каждый сотрудник, чтобы ограничить неэффективное или нецелевое использование. Платформа автоматизации Zapier запустила внутреннюю панель, которая отображает, как сотрудники используют ИИ и сколько токенов при этом тратят. «У нас появилась новая статья расходов», — подтвердил директор по ИИ-трансформации компании Брэндон Саммут. По его словам, токены имееют цену, и компаниям приходится учитывать её в своих расчётах.

Ранее компании Кремниевой долины начали предлагать бонусы в виде компенсаций за доступ к ИИ-моделям своим инженерам. Инженеры-программисты и исследователи ИИ в технологических компаниях уже давно борются за доступ к графическим процессорам (GPU), при этом вычислительные мощности для ИИ тщательно распределяются в зависимости от того, какие проекты наиболее важны. В итоге некоторые кандидаты на вакансии начали спрашивать о том, какой бюджет на вычисления в ИИ им будет доступен, если они решат присоединиться к компании.

Теги:
+5
Комментарии13

Дайджест: новости за февраль 2026

🚀 Через 16 дней встретимся на GoCloud 2026 — нашей главной ежегодной конференции про ИИ и облака. В этом году мы подготовили насыщенную программу, чтобы вы могли первыми узнать, какие подходы в работе с ИИ, данными, облаками и кибербезопасностью станут стандартом для бизнеса в 2026 году. Регистрируйтесь, чтобы ничего не пропустить.

📈 Если вы работаете в компании, которая хочет построить аналитику данных в облаке без первоначальных затрат на инфраструктуру, то у вас есть возможность запустить тестовый проект в рабочей среде облака с гарантированными SLA и безопасностью с помощью платформы Cloud.ru для работы с данными. Подробнее о предложении читайте на сайте, действует до 30 июня 2026.

👨‍💻 Еще до 30 июня можно забрать скидки до 40% на сервисы для запуска и развертывания LLM-моделей с помощью инференса или на физических серверах с GPU и CPU. 

🛡️ Теперь в облаке Cloud.ru можно размещать системы для обработки банковской тайны и проведения любых финансовых операций за счет подтверждения соответствия стандарту ГОСТ Р 57580.1-2017. Этот стандарт определяет основные требования по информационной безопасности для организаций, которые оказывают финансовые услуги по лицензии Центрального банка России. 

⚙️ Что нового в цифровой среде AI Factory:

  • В сервис для обогащения данными языковой модели добавили тег latest, который доступен при запросах к Search API для параметра knowledge_base_version. Он позволяет делать запросы к последней версии базы знаний без указания ее идентификатора.

  • В сервис для создания автономных ИИ-агентов добавили: триггеры, которые позволяют запускать агента при получении сообщения в мессенджере или электронного письма, а также настроить регулярный вызов по расписанию; поддержку трейсинга — возможность просмотра полных трейсов выполнения и отображение каждого шага агента с параметрами, уровнем уверенности и стоимостью; сессии агентов — они нужны, чтобы изучать цепочки рассуждений, смотреть, какие инструменты были использованы, и отслеживать стоимость выполнения сессии.

  • В сервисе для запуска моделей машинного обучения запустили Public API для управления инференсами. Он позволяет: получать список инференсов в проекте с пагинацией и фильтрацией по названию, а также детальную информацию о состоянии инференса; управлять жизненным циклом: масштабировать, настраивать ресурсы и параметры выполнения

  • Добавили новые модели в сервис с готовыми LLM и ИИ-моделями: zai-org/GLM-4.7-Flash, zai-org/GLM-4.7, t-tech/T-lite-it-2.1, t-tech/T-pro-it-2.1, Qwen/Qwen3-Coder-Next. Все модели доступны через API и поддерживаются в интерфейсе песочницы для быстрого тестирования. 

☁️ Управляемая аналитическая СУБД в облаке на базе ClickHouse® перешла в режим открытого тестирования и теперь доступна в личном кабинете Cloud.ru для всех зарегистрированных пользователей. Другие новости про наши облачные сервисы читайте в блоге на сайте.

🦾 Делимся инструкцией, как запустить ИИ-чат за шесть шагов. Внутри гайда порядок действий со списком сервисов и параметрами настройки; команды и конфиги, которые можно скопировать и использовать; настройка Open WebUI для работы с готовыми моделями через OpenAI-совместимый API и выбор модели прямо в интерфейсе чата; практическая настройка защиты, ограничение доступа по IP-адресам, а также использование SSL-сертификатов для шифрования соединений.

🤖 Изучите новый бесплатный курс от нашей команды о практиках развертывания, эксплуатации и автоматизации ML-систем с использованием корпоративных платформ данных. Подходит всем, кто хочет надежно и масштабируемо внедрять ИИ‑модели. 

🎙️ Выложили записи новых увлекательных вебинаров про ETL в облаке: от хаоса к управляемым процессам и корпоративный AI-чат: от выбора модели до работающего прототипа

💼 Рассказали, как онлайн-сервис доставки Купер перенес 40 ТБ аналитических данных в облако без остановки процессов. Подробности кейса смотрите на сайте.

Теги:
+3
Комментарии0

5 задач бизнеса, которые уже выполняют голосовые AI-агенты

Голосовые агенты перешли из пилотов в рабочие процессы: компании поручают им не только ответы на вопросы, но и реальные действия в CRM, календарях и заказах. Ниже — пять задач, которые голосовой AI агент (voice AI агент) уже закрывает без операторов.

1. Приём и обработка входящих звонков 24/7

Клиент звонит в нерабочее время или в час пик — вместо очереди или «перезвоните завтра» его встречает голосовой бот для звонков. Он уточняет запрос, проверяет статус заказа или баланс в ваших системах и либо решает вопрос, либо оставляет заявку и передаёт в CRM с уже заполненной карточкой. Нагрузка на операторов падает, а простые запросы обрабатываются без ожидания. Голосовой ИИ агент здесь выступает первым контуром приёма: фильтрует рутину и оставляет людям сложные и эмоциональные кейсы.

2. Запись и напоминания о встречах

«Хочу записаться на консультацию» или «Перенести визит на следующую неделю» — типичные фразы, которые голосовые агенты уже обрабатывают без участия менеджера. Бот проверяет свободные слоты в календаре, бронирует время, при необходимости отправляет подтверждение и напоминание. Часть платформ умеет и исходящие звонки: напомнить о записи за день или за час и уточнить, придёт ли клиент. Для бизнеса это меньше пропусков, меньше ручного согласования и больше контролируемого потока записей.

3. Квалификация лидов по телефону

Входящий лид звонит — голосовой бот для бизнеса задаёт уточняющие вопросы (задача, бюджет, сроки), оценивает качество лида и либо передаёт в отдел продаж с уже заполненной карточкой в CRM, либо запускает цепочку писем для «тёплых» контактов. При исходящем обзвоне та же логика: бот обзванивает заявки с сайта, квалифицирует их и обновляет поля в CRM. В итоге менеджеры получают уже отфильтрованный и структурированный входящий поток вместо «сырых» заявок.

4. Информирование и самопроверка статусов

«Где мой заказ?», «Какой у меня баланс?», «Когда приедет мастер?» — запросы, которые голосовые агенты обрабатывают, подтягивая данные из систем заказов, биллинга или учёта. Клиенту не нужно ждать оператора или искать информацию в личном кабинете: он звонит или говорит через виджет на сайте (голосовой бот для сайта), и за секунды получает актуальный ответ. Это снижает нагрузку на поддержку и ускоряет время до ответа по типовым вопросам.

5. Сбор обратной связи и актуализация баз

После доставки, визита или сделки голосовой AI агент может сам перезвонить клиенту или позвонить по списку: провести короткий опрос (NPS, причина отказа, удовлетворённость), уточнить контактные данные или причину неявки на встречу. Ответы фиксируются в CRM или в отчётности. Рутинный обзвон перестаёт зависеть от загрузки операторов, а база остаётся актуальной без ручного обхода.

Что нужно, чтобы такие сценарии работали

Чтобы голосовые агенты не только разговаривали, но и выполняли эти задачи, им нужна связка с вашими системами: CRM, календарь, заказы, почта. Тогда разговор сразу превращается в обновлённую карточку, новую запись или запущенную цепочку.

Голосовые AI-агенты уже закрывают приём звонков, записи, квалификацию лидов, информирование и обзвон для обратной связи. Отличие от прежней автоматизации — понимание естественной речи и выполнение действий в ваших системах, а не только воспроизведение скриптов. Тем, кто только оценивает внедрение, имеет смысл начинать с одной-двух задач из этого списка и расширять сценарии по мере отладки.

Теги:
0
Комментарии0

Исследовательская организация METR опубликовала подробный анализ, который ставит под сомнение реальную эффективность ИИ‑агентов в программировании. Исследователи проверили, насколько результаты одного из главных отраслевых бенчмарков SWE‑bench Verified соответствуют практике разработки с участием живых мейнтейнеров open source‑проектов. Выяснилось, что около половины решений, которые автоматическая система оценки считает успешными, в реальности не были бы приняты в основной код.

В исследовании METR участвовали четыре действующих мейнтейнера трёх популярных репозиториев: scikit‑learn, Sphinx и pytest. Они провели ручной код‑ревью 296 pull‑request, созданных ИИ‑моделями. Среди протестированных систем были Claude 3.5 Sonnet, Claude 3.7 Sonnet, Claude 4 Opus, Claude 4.5 Sonnet и GPT-5.

Разрыв между результатами автоматических тестов и реальным код-ревью: модели ИИ демонстрируют заметно более высокие показатели успешности в бенчмарке SWE-bench, чем при проверке опытными разработчиками, что указывает на переоценку их практической эффективности. Источник: METR.
Разрыв между результатами автоматических тестов и реальным код-ревью: модели ИИ демонстрируют заметно более высокие показатели успешности в бенчмарке SWE-bench, чем при проверке опытными разработчиками, что указывает на переоценку их практической эффективности. Источник: METR.

Рецензенты не знали, написан ли код человеком или машиной. В результате оказалось, что в реальной разработке такие решения принимаются значительно реже: уровень одобрения оказался примерно на 24 процентных пункта ниже, чем показывали автоматические тесты SWE‑bench. Даже если учитывать, что сами человеческие решения при повторной проверке одобрялись только в 68% случаев, разница между оценками алгоритма и мнением разработчиков все равно осталась статистически значимой.

Разработчики классифицировали причины отклонения решений на три основные категории. Первая — низкое качество кода, включая несоблюдение стандартов проекта и избыточную сложность. Вторая — нарушения существующей логики системы, когда исправление одной ошибки приводило к поломке других частей кода. Третья — базовые функциональные ошибки: значительная доля решений формально проходила тесты, но фактически не устраняла исходную проблему.

Исследование METR также выявило различия между моделями: переход от Claude 3.5 к Claude 3.7 сопровождался ростом общего числа «успешных» решений, но увеличением случаев функциональных дефектов, тогда как более поздние версии Anthropic улучшали прежде всего качество кода. GPT-5 в среднем демонстрировал более слабые результаты по этому критерию.

Дополнительный анализ METR показал, что результаты тестов могут создавать неверное впечатление о том, насколько хорошо ИИ работает в реальных задачах. По автоматическим данным Claude 4.5 Sonnet достигает 50% уровня успеха на задачах, сопоставимых с 50 минутами работы разработчика. Однако оценки мейнтейнеров снизили этот показатель примерно до восьми минут. Это означает, что лабораторные метрики могут завышать реальную эффективность ИИ‑агентов в несколько раз.

В команде METR указывают, что исследование не доказывает фундаментального потолка возможностей современных моделей. В эксперименте ИИ‑системы получали только одну попытку решения задачи, тогда как в реальной разработке код дорабатывается итеративно после замечаний.

Теги:
+1
Комментарии1

Очеловечивание ИИ

Недавно разошлась новость о том, что Антропик (создатель Клода, а я с ним, как и с Кодексом, работаю с утра до утра каждые сутки) создал курс по «скилзам» (англицизм, skills), а по‑русски — навыкам. По каким навыкам? Вы думаете, вашим, разработчиков? Нет! Курс по навыкам агентов искусственного интеллекта.

ии-котейко
ии-котейко

Все бросились об этом писать, здесь на Хабре статья вышла. Тема не новая, Антропик про навыки ИИ пишет уже давно. Но только сейчас, с выходом курса, об этом громко заговорили.

И знаете, мне кажется, что все упускают один важный момент.

Название. Навыки! Это слово мы всегда применяли только к людям, а не к каким-то железкам.

А здесь идет явное очеловечивание ИИ. Это осознанное действие. Нас хотят приучить к мысли, что ИИ — не инструмент! Это очень опасно. И об этом никто не пишет. ИИ должен остаться инструментом. У него не должно быть навыков, сознания. У него могут быть только чипы и инструкции.

Человек должен четко провести эту границу и соблюдать ее. Но, к сожалению, этого не произойдет. Сейчас человек занят другими проблемами.

Всегда ваш (не ии), Ланчев PRO ИИ (канал автора в телеге)

Теги:
+5
Комментарии2

Студентам и научным руководителям: 3 бесплатных курса по ИИ от Яндекса и ВШЭ

В Яндекс Практикуме появляется всё больше курсов по использованию ИИ в учёбе. Делимся небольшой подборкой для всех, кто собирается поступать, уже учится или преподаёт. Все курсы бесплатные, без дедлайнов, а доступ остаётся навсегда.

Внутри вы найдёте теорию с примерами, а также квизы и задачи для закрепления материала. Прохождение самостоятельное, но с вами будет ИИ-помощник: он объяснит сложный термин, приведёт примеры, даст подсказку при выполнении задания и поможет сориентироваться в контенте уроков.

1. «Нейросети для учёбы» 

Кому: старшеклассникам и студентам первых курсов
Время прохождения: 13 часов в своём темпе
В конце вы получите сертификат о прохождении курса

На курсе вы научитесь готовить конспекты, проводить исследования и готовиться к экзаменам, а также освоите техники промптинга для написания эссе и создания иллюстраций. Расскажем, как быстро структурировать любые данные и как использовать ИИ для персонального тайм-менеджмента. Также вы узнаете, как пользоваться нейросетями осознанно и безопасно.

Узнать о курсе подробнее и начать учиться →

2. «ИИ и промптинг для студенческих проектов»

Кому: студентам бакалавриата и магистратуры
Время прохождения: 8 часов в своём темпе
В конце вы получите сертификат о прохождении курса 

Курс даёт базу для ответственного использования ИИ в учебных и исследовательских задачах. Вы научитесь формулировать тему, искать и анализировать информацию, планировать исследование, оформлять и проверять работу с помощью ИИ. А также разберётесь, как применять ИИ осознанно и представлять этот опыт на защите курсовой или дипломной работы. 

Узнать о курсе подробнее и начать учиться →

3. «ИИ и промптинг для научных руководителей»

Кому: преподавателям и научным руководителям
Время прохождения: 9 часов в своём темпе
В конце вы получите сертификат о прохождении курса

Курс основан на опыте проекта Яндекс Образования и ФКН ВШЭ, апробированного в 11 вузах с участием более 500 студентов и 250 преподавателей. Вы разберётесь в возможностях и ограничениях технологий, научитесь формулировать критерии их применения и давать аргументированную обратную связь по работам студентов.

Вы научитесь писать качественные промпты, а также узнаете, как с помощью ИИ искать и анализировать научные источники, формулировать темы и гипотезы исследований, оформлять библиографию и визуализировать данные. А ещё познакомитесь с ИИ-инструментами, которые помогут автоматизировать рутинные задачи.

Узнать о курсе подробнее и начать учиться →

Теги:
+2
Комментарии0

rules отдельно, skills отдельно: система правил для ИИ-агентов в Claude Code

Возвращаюсь к своему опыту работы с Claude Code. Там за неделю накопилось несколько интересных решений в работе контентными агентами. Например, добавил устойчивость к ошибкам WebSearch и начал сохранять результаты проверок для дообучения. Но сначала надо вам рассказать про правила.

Почему rules, если есть уже привычные skills? Разница между этими сущностями принципиальная:

➡️ rules — это «как оформлять» (ограничения, чеклисты, формат),
➡️ skills — «что знать» (предметная экспертиза, справочники, методологии).

Rules загружаются автоматически через симлинки. Skills вызываются по запросу, когда агенту нужна глубокая экспертиза.

Но всё равно же не очень понятно, зачем такое разделение, да?

Правила не засоряют контекстное окно. Файлы из .claude/rules/ загружаются в системный промт автоматически — агент соблюдает правила, не тратя токены на их обсуждение. Skills, наоборот, подгружаются только когда нужны. Справочник на 200 терминов не висит в контексте постоянно — он появляется в момент, когда автору пора писать, и не мешает исследователю или фактчекеру.

Когда агентов больше одного, правила написания текстов неизбежно дублируются. Обновил термин в одном месте — забыл в трёх других. Решение: вынести все правила в единую директорию rules/ и раздавать агентам через симлинки в .claude/rules/

При этом сами правила делятся на два уровня:

➡️ Общие (rules/common/) загружаются в каждого агента: терминология, стиль, грамматика, протокол работы субагентов.
➡️ Доменные (rules/{domain}/) добавляют специфику формата: у SEO-статьи свои требования к структуре, у пресс-релиза — свои, у лендинга — свои.

Доменные папки могут содержать файлы с теми же именами, что и в common/. Это не дубли, а дельты — дополнения и уточнения общих правил для конкретного формата. Агент загружает оба файла и применяет оба набора ограничений.

Результат: один файл правил — один источник правды. Изменил правило в rules/common/ — оно обновилось у всех агентов. Новый агент подключается за минуту: создал .claude/rules/, добавил симлинки — готово.

Как это работает в оркестрации

В модульной системе с субагентами разделение rules и skills становится особенно важным. Типичный пайплайн:

1️⃣ Оркестратор собирает параметры задачи через wizard.
2️⃣ Субагент-исследователь загружает свои rules (протокол работы, устойчивость к ошибкам поиска), ищет данные, возвращает структурированный конспект.
3️⃣ Субагент-автор загружает свои rules (доменные стандарты формата + общие правила качества) и skill (экспертная специализация), пишет текст по конспекту.
4️⃣ Субагент-проверщик загружает свои rules (требования к фактам и качеству), проверяет текст независимо.

Каждый субагент получает только нужные данные (чистый контекст) и только свои правила. Исследователь не знает правил оформления — они ему не нужны. Автор не знает, как проверять факты — это задача следующего субагента. Фактчекер не знает, как писать — он только проверяет. Такое разделение позволяет держать контекст каждого субагента компактным и сфокусированным.

Больше такого в моём канале.

Теги:
0
Комментарии0

Ускоряем разработку в разы: специалист по ИИ собрал пять репозиториев для Claude Code, чтобы автоматизировать большинство задач в рутине программиста:

  • Superbase CLI управление миграцией БД на PostgreSQL, генерирует типы из схемы БД, создаёт аутентифицированные HTTP-запросы.

  • Skill Creator — позволяет создавать агентные скиллы без лишних заморочек, постоянно улучшаете и оттачиваете навыки Claude для конкретных задач.

  • Get shit done — создаёт легковесную систему разработки с контекстным инжинирингом и поддерживает Claude Code, OpenCode, Gemini CLI, Codex, Copilot, и Antigravity.

  • Notebooklm-py — обеспечивает программный доступ к фичам NotebookLM, который очень хорошо будет смотреться с агентами Claude Code, Codex, и OpenClaw.

  • Obsidian.md — аналог NotebookLM со схожим функционалом, который работает в России и в него можно интегрировать Claude, чтобы получить мощный ворфлоу.

Теги:
0
Комментарии0

UML: язык, который сделал модели универсальными

В мире разработки программного обеспечения всегда существовала проблема: как объяснить сложные архитектурные идеи так, чтобы их одинаково понимали аналитики, разработчики, тестировщики и менеджеры? Код слишком детализирован, текстовые описания слишком расплывчаты. Решение появилось в 1990‑е годы — Unified Modeling Language (UML), единый язык моделирования, который превратил архитектуру в набор визуальных схем.

Зачем нужен UML

UML — это не язык программирования, а язык описания систем. Его цель — дать команде общий визуальный словарь.

  • Аналитик может показать бизнес‑процесс.

  • Архитектор — структуру классов.

  • Разработчик — взаимодействие объектов во времени.

  • Тестировщик — сценарии использования.

Все эти диаграммы строятся по единым правилам, что снимает путаницу и позволяет обсуждать систему на разных уровнях абстракции.

Основные типы диаграмм

UML включает более десятка видов диаграмм, но чаще всего используют несколько ключевых:

  • Диаграмма классов — показывает структуру системы: классы, их атрибуты, методы и связи.

  • Диаграмма вариантов использования (Use Case) — описывает, как пользователи взаимодействуют с системой.

  • Диаграмма последовательностей (Sequence) — иллюстрирует обмен сообщениями между объектами во времени.

  • Диаграмма состояний (State Machine) — фиксирует, как объект меняет состояния под воздействием событий.

  • Диаграмма компонентов — показывает, из каких модулей состоит система и как они связаны.

Каждая диаграмма — это взгляд на систему с определённой стороны. Вместе они дают целостную картину.

Сила UML

Главное достоинство UML — универсальность. Он не привязан к конкретному языку программирования или платформе. Диаграмма классов может описывать Java‑систему, C#‑приложение или даже организационную структуру компании.

Кроме того, UML стал стандартом (OMG утвердил его в 1997 году), что позволило появиться множеству инструментов: от простых редакторов до CASE‑систем, которые умеют генерировать код по диаграммам или наоборот — строить диаграммы из кода.

Критика и эволюция

Со временем UML подвергся критике:

  • Диаграммы часто становились слишком громоздкими.

  • Команды тратили больше времени на рисование, чем на разработку.

  • В Agile‑среде UML казался слишком «тяжёлым».

Однако его ценность осталась: UML — это язык мышления об архитектуре. Даже если команда использует упрощённые схемы, они всё равно основаны на его идеях.

UML сегодня

Сегодня UML редко применяют в полном объёме. Но его элементы живут везде:

  • Use Case диаграммы — в бизнес‑анализе.

  • Sequence диаграммы — в проектировании API.

  • Class диаграммы — в документации.

UML стал своего рода «латинским языком» архитектуры: не всегда используется в чистом виде, но лежит в основе многих практик.

Теги:
-4
Комментарии0

Коротко о системах антиплагиата: британский профессор проверил свою научную работу, написанную 45 лет назад. Оказалось, что она… на 77% «сгенерирована нейросетями».

Теги:
+8
Комментарии4

Небольшой хак для работы с нейросетью GLM-5

У проекта есть бесплатный чат, а что ещё важнее у них есть бесплатный агентный режим.

Нейроесть бесплатно доступна по адресу: https://chat.z.ai Каких-то ограничений в бесплатной версии я не видел, в целом достаточно интересный и главное бесплатный проект.

Есть только одна проблема, веб интерфейс поддерживает загрузку только определенных типов файлов: txt, doc, docx, pdf, png, mp4, py, ничего кроме разрешенных форматов загрузить нельзя. Т.е. если у вас проект на c#, php или любом другом языке, то придётся каждый файл переименовать и загружать как txt ))

Да и ещё один не очень приятный момент, одновременно через web можно загрузить не более 10 файлов, а если у вас в проекте их 30?

Что тогда? Установить у каждого из них расширение txt и загружать 3 раза по 10 файлов?

К счастью нас спасает то, что в отличие от веб интерфейса, сам агент будет поумнее и может то, что через веб не разрешено.

Я нашел для себя хороший простой способ, позволяющий обойти эти ограничения.

Запаковываем папку с проектом в zip архив и добавляем расширение docx (другие расширения не подойдут, так как сервер проверяет контент на соответствие расширению, а docx это по факту и есть zip)

После чего грузим его через интерфейс и пишем агенту примерно следующий текст:

Переименуй файл myproject.zip.docx в myproject.zip и распакуй в папку с проектом.

Все... Агент выполнит вашу просьбу, распакует архив и сможет работать с файлами вашего проекта.

Теги:
+5
Комментарии0

Представлен открытый проект Claude Code Game Studios. Это игровая ИИ-студия на базе нейросетей, которые умеет создавать различные проекты от простых бродилок до прорывного экшена:

  • 48 нейросетей, которые могут работать без остановки. Это не устающий отдел геймдева прямо на локальном ПК;

  • среди ИИ есть: креативный директор, технический директор, продюсер, QA, нарративный директор, левел-дизайнер и другие ИИ-системы;

  • нейросети до мельчайших деталей знают актуальные движки: Godot 4, Unity и Unreal Engine 5. Они напишут на них игру и запустят с тестами;

  • ИИ-системы сами проверяют работу: коммиты, комментарии, задачи и итоги спринтов, а также все важные нововведения и ревью;

  • все действия нейросети согласовывают с пользователем как с гендиректором: с полным отчётом, предложениями и планом. Да, команда автономна, но задаёт вектор именно пользователь;

  • авторы проекта также добавили 28 шаблонов документов: по геймдизайну, архитектуре проекта, экономике, фракциям, UX и так далее.

Теги:
+6
Комментарии1

Представлен открытый проект ClawRouter, который максимально эффективно позволяет расходовать токены ИИ-моделей, анализируя задачи и подбирая нейросети, чтобы пользователи не переплачивали за лишний расход ИИ-мощностей:

  • анализирует запрос и оценивает его по 14 пунктам: сложность, комплексность, длина промпта и другие параметры.

  • подбирает эффективную модель из 40+ сервисов.

  • результат прилетает за секунды.

  • работает полностью локально.

  • итог: сложные задачи летят в более мощные нейронки с большим лимитом, а легкие забирает малышня.

Теги:
+3
Комментарии0

ИИ-разработка. Темп

Знаете, обычно все скрыто под NDA. Но, когда свой проект, то можно рассказать все. Сегодня я расскажу самое главное. С какой скоростью идет разработка с помощью ИИ.

Немного статистики по проекту
Немного статистики по проекту

Мне говорят, что 90-95% разработчиков не используют ИИ. Мне тяжело в это поверить. Я скорее поверю, что они это скрывают. Ни самим разработчикам, ни IT-компаниям невыгодно рассказывать о возросшей эффективности. Мы еще поговорим как-нибудь об этом. А пока держите эффективность моей разработки.

✔ Только что я закончил весьма тяжелый переход к новой архитектуре данных в своем проекте lanchess.ru

👀 И занял этот переход у меня 2 дня! (если считать сегодня, то 3)
Стоило это мне 10 тыс строк кода и массы тестов (и тд и тп).

А теперь внимание.
Сколько времени эта же работа заняла бы без использования ии-инструментов?
Ответ: 16-26 рабочих дня.

💥 2 дня против 1 месяца работы!

Вы пока думайте, что сказать, а я пошел дальше работать 🙂

Всегда ваш, Ланчев PRO ИИ

Теги:
-7
Комментарии25

Немного о вездесущем ИИ в «преобразовании бизнеса». Думаю, что это сейчас знакомая многим боль.

ОПУС: Джун. Ошибка доступа.

«„Легкий старт в IT? Быстрый карьерный рост?“ Какая же чушь. Я смотрю на экран, и он абсолютно глухой. Двести откликов за неделю. Двести раз мое вылизанное резюме улетело в черную дыру эйчар‑алгоритмов и даже не звякнуло об дно.»

Спина затекла. Я сижу так уже часов пять, обновляя ленту вакансий. Вкладки давят. В каждой — требования, от которых просто сводит челюсть. «Опыт от 3 лет», «Умение управлять пулом ИИ‑агентов». Какие агенты? Я сам готов быть вашим агентом, просто дайте мне задачу! (Нет, не пиши это в сопроводительном. Стереть. Надо звучать уверенно: «Обладаю высокой адаптивностью к работе с ИИ‑пайплайнами». Господи, как же шаблонно и жалко это звучит).

Рынок не просто просел — он схлопнулся. Там, где раньше сидел отдел из десяти джунов, набирающихся опыта, теперь сидит один уставший сеньор. Он потягивает кофе и просто раскидывает промпты трем нейросетям, которые пишут, тестят и деплоят код за секунды. А нас — тех, кто только что с горящими глазами вышел с курсов или универа — тысячи. Мы бьемся лбами за три оставшиеся стажерские позиции, где одно только тестовое задание тянет на полноценный бесплатный проект.

А реальная жизнь тем временем никуда не делась. Экран телефона загорается — это Лера: «Ну что, куда сегодня пойдем?». А куда мы пойдем? У меня на карте сумма, которой хватит разве что на два капучино и такси в одну сторону. И вот это разрывает изнутри больше всего. Меня распирает от энергии, я хочу работать, я готов пахать сутками, грызть эти задачи зубами — но миру это больше не нужно.

Миру не нужен мой энтузиазм и мой потенциал. Ему нужен готовый, безошибочный результат за ноль секунд, который я дать не могу, а машина — может. Я чувствую себя так, словно прибежал на вокзал с билетом, купленным на последние деньги, а поезд не просто ушел — отменили саму железную дорогу. И вокруг меня на перроне топчется еще миллион таких же дураков с пустыми карманами“

А для всех, кто устал от ИИ‑контента сразу признаюсь. Этот опус сгенерирован Gemini (конечно же с очень сложным входным промптом на 5–6 тыс токенов).

И все же результат настолько занимательный, что не могу не поделиться...

Теги:
+2
Комментарии0

Собрались однажды Google Search и логарифмическая линейка. Выпили по рюмке тока и подумали: а не написать ли нам какую‑нибудь статью? — Ой, какая хорошая идея! Стали они думать — какую статью им написать. Ничего не придумали, решили: пойдём у LLM спросим — какие статьи сейчас пишут… LLM нагрузил свои 1 нм транзисторы, использовал недельный запас электричества в Сан‑Франциско, и выдал список из самых популярных тем статей за последний год, добавив — я свою работу сделал, дальше сами разбирайтесь. Закручинились Google Search с логарифмической линейкой, не знают что дальше делать. И надумали спросить у человека. Тот посмотрел на список со схемами, почесал репу( так у этих устройств называется место, где CPU находится), и говорит — А вот ежели эту ендовину вставить вот в эту, то такая хрень получится, е..тть… Обрадовались Google Search с логарифмической линейкой, стали работать — статью писать, один в интернете рылся, второй считал, но тут им опять помощь потребовалась — нашел Google Search статью на аглицком, пришлось еще Google Translator позвать. И получилась у них статья, нарадоваться не могут. Быстро опубликовали ее на Хабре и стали комментарии читать. Один пишет — это же модель вечного двигателя, другой — это машина времени, тут еще один сказал, что они ошибаются, потому‑что это эликсир бессмертия… много было комментариев, и последний говорит — да эту статью ИИ написал и вы все тоже ИИ. И тут и Google Search и логарифмическая линейка и LLM и даже Google Translator возгордились и дальше жили долго и счастливо и умерли в один день :‑)

Теги:
+3
Комментарии0

Представлен открытый учебный проект OpenMAIC (Open Multi-Agent Interactive Classroom). Это нейроуниверситет, который может помочь за несколько занятий выучить материал на 100 страниц (демо в браузере):

  • работает как полноценная лекция + практика — есть ИИ-преподаватель и ИИ-студенты.

  • на заданную тему ИИ её разжёвывает, а потом закрепляет практикой и самыми каверзными вопросами.

  • можете слушать и фиксировать, а можете принять участие — голосом или текстом.

  • задали вопрос — получили ответ.

  • всё максимально удобно — лекции с озвучками, лазерной указкой и тестами.

  • ИИ-преподаватель разберёт все ошибки в понимании материала.

  • практика — прямо в браузере идёт имитация задач и физических экспериментов.

Теги:
+4
Комментарии0

Собираем локальную агентную AI-систему

Если хочется не просто «чатик с нейронкой», а локального AI агента, который умеет ходить в инструменты (файлы и т. п.) и выполнять твои задачи, то вот статья, которую реально можно повторить руками: «От чат-бота к AI агенту: собираем локальную систему на LibreChat, Langflow и MCP». Это подробнейший мануал с пятью уровнями сложности!

В этой статье покажем, как собрать связку из трёх ключевых компонентов:

  1. LibreChat — UI для работы с LLM

  2. Langflow — low-code платформа и визуальный редактор

  3. MCP — стандарт для подключения инструментов

Структура статьи «по нарастающей»: можно остановиться на любом уровне — от простого локального чата до кастомизируемого агента.

Если вам интересны вызовы защиты ML-систем от современных атак и вы хотите развиваться в MLSecOps, присоединяйтесь к нашей команде, мы в поисках специалиста по защите искусственного интеллекта. Откликайтесь на вакансию по ссылке.

Теги:
+3
Комментарии1

По наводке камрадов узнал, что сервис продажи авиабилетов Купибилет теперь еще и туристический гид. Однако весь соответствующий раздел их сайта целиком и полностью, на 146%, состоит из отборнейшего нейрослопа. Вот просто от первой до последней буковки.

Но самая мякотка это фотографии. Например, я узнал, что парк культуры и отдыха "Гулливер" моего родного города выглядит так

ПКиО Гулливер по мнению нейропомойки
ПКиО Гулливер по мнению нейропомойки

Ненуачо. Гулливер же. Ну типа большой мужик в парке. Как заказывали.

Предлагаю всем желающим узнать занимательные факты и насладиться фотографиями родных мест.

Теги:
+2
Комментарии7

Как развивается и куда движется «русское техно»? Обсудим на ИТ-вечере 26 марта 😎

Поговорим про особенности инженерной культуры в больших ИТ-компаниях, практики внедрения ИИ в разработку, автоматизацию код-ревью и использование LLM без ущерба для безопасности. В программе эксперты из МТС Web Services, СберТех, red_mad_robot и Авито.

Будет интересно бэкенд- и ML-разработчикам, которые строят современные российские ИТ-системы, а также всем, кто интересуется ИИ-практиками в разработке. Участников ждут актуальные кейсы, дискуссии, активности от MWS GPT, нетворкинг и атмосфера техно-вечеринки с ИИ-треками.

📅 Когда: 26 марта (четверг) в 18:00 по мск

📍 Где: офлайн в парке Сокольники в Москве + онлайн 

Успевай записаться — количество участников ограничено.

👉 Зарегистрироваться

Теги:
-1
Комментарии0

Архитектура голосового AI-агента для бизнеса

Голосовой AI-агент для бизнеса — это не просто связка распознавания речи и озвученного ответа. Полноценная система объединяет каналы связи, ядро диалога, интеграции с внутренними сервисами, управление сессией и правила передачи разговора человеку. Именно эта связка определяет, сможет ли агент реально участвовать в бизнес-процессах, а не только отвечать на типовые вопросы.

Общая схема

На верхнем уровне находятся каналы, через которые пользователь взаимодействует с агентом: входящие и исходящие звонки, а также голосовой виджет на сайте. Ниже располагается голосовое ядро, состоящее из трёх компонентов: ASR, LLM и TTS. Ещё ниже — интеграции с CRM, календарями, заказами, базами знаний и другими системами. Отдельным слоем идёт оркестрация сессии: хранение контекста, управление сценарием и эскалация на оператора.

Такая архитектура позволяет использовать одно и то же ядро для разных каналов. Меняется только способ доставки аудио, а логика диалога и доступ к данным остаются общими.

Каналы

Во входящих звонках телефония принимает вызов и передаёт аудио в голосовое ядро. Агент определяет запрос, отвечает сам или передаёт разговор оператору вместе с контекстом.

Во исходящих звонках система сама инициирует вызов: напоминает о встрече, проводит опрос, подтверждает запись, квалифицирует лид. После разговора она может обновить CRM или запустить follow-up процессы.

На сайте пользователь говорит через браузер, а аудио идёт в ту же цепочку ASR → LLM → TTS. Разница здесь только в канале, а не в логике работы.

Голосовое ядро

Ядро voice AI строится вокруг трёх блоков:

  • ASR переводит речь в текст в реальном времени;

  • LLM понимает намерение, держит контекст и решает, что делать дальше;

  • TTS превращает ответ в голос.

Для бизнеса важно, что LLM не просто формирует текст, а может вызывать внешние инструменты. Например, проверить статус заказа, создать лид, записать клиента в календарь или найти ответ в базе знаний. Благодаря этому голосовой агент становится частью операционного контура компании.

Критичны и задержки: если распознавание, генерация ответа или синтез речи работают слишком медленно, диалог становится неестественным.

Интеграции

Без интеграций агент ограничен статичными ответами. С интеграциями он может выполнять полезные действия в реальных системах.

Типичные подключения:

  • CRM — создание и обновление контактов, лидов и сделок;

  • системы заказов — проверка статуса, сроков, доставки;

  • календарь — поиск свободных слотов, запись, перенос;

  • база знаний / RAG — ответы по продукту, тарифам, условиям;

  • автоматизации — запуск писем, тикетов, задач и других сценариев.

Обычно такие действия оформляются как инструменты, которые LLM вызывает по мере разговора. Чем богаче этот слой, тем больше обращений агент способен закрыть без участия оператора.

Сессия и эскалация

Каждый разговор — это отдельная сессия. В ней хранятся история реплик, извлечённые данные и текущее состояние сценария. Контекст нужен, чтобы агент не терял нить разговора и мог ссылаться на уже сказанное.

Не менее важна эскалация. В архитектуре должны быть заранее определены правила: когда разговор нужно передать человеку, как именно передать контекст и в какую очередь маршрутизировать клиента. Передача оператору — не ошибка системы, а нормальный элемент сценария для сложных или нестандартных кейсов.

Что даёт такая архитектура

Такая схема даёт бизнесу несколько преимуществ:

  • единая логика для телефона и сайта;

  • выполнение действий, а не только ответы;

  • сохранение контекста между этапами разговора;

  • предсказуемая передача сложных кейсов операторам;

  • возможность масштабировать сценарии без полной перестройки ядра.

Итог

Архитектура голосового AI-агента состоит из нескольких слоёв: каналы, голосовое ядро, интеграции, управление сессией и эскалация. Чем лучше связаны эти элементы, тем полезнее агент для бизнеса. На практике ценность такого решения определяется не только качеством речи, но и тем, насколько глубоко агент встроен в реальные процессы компании.

Теги:
0
Комментарии0

Представлен открытый проект Awesome OpenClaw — тщательно подобранный список замечательных ресурсов по OpenClaw — не все, но только лучшие.

Ранее был представлен открытый и бесплатный фундаментальный курс по OpenClaw, включая весь материал на русском языке с полным описанием процессов установки, настройки, использования и полноценной кастомизации ИИ‑бота под свои задачи.

Теги:
+2
Комментарии0

Разработчик Роман Гущин (Roman Gushchin) из команды мейнтейнеров ядра Linux в Google объявил о доступности новой ИИ-системы Sashiko для проверки кода с помощью искусственного интеллекта. Внутри Google она уже используется для выявления проблем, и теперь она доступна публично и охватывает все сообщения, отправленные в список рассылки ядра Linux. Гущин пояснил, что Sashiko смогла обнаружить около 53% ошибок на основе неотфильтрованного набора из 1000 недавних проблем ядра Linux с меткой «Исправления:».

Теги:
+3
Комментарии0

Как работают голосовые AI-агенты в 2026 году: замена операторов колл-центра

Голосовые AI-агенты к 2026 году стали не экспериментом, а рабочим инструментом колл-центров, поддержки и продаж. Они уже не ограничиваются простыми IVR-сценариями вроде «нажмите 1», а способны вести естественный диалог, понимать запрос клиента, удерживать контекст и выполнять действия в бизнес-системах.

Что такое голосовой AI-агент

Голосовой AI-агент — это система, которая распознаёт речь клиента, понимает смысл обращения, формирует ответ и озвучивает его. При этом она может не только говорить, но и выполнять полезные действия: проверять статус заказа, записывать клиента, обновлять CRM, создавать задачи или запускать процессы в других сервисах.

От обычного голосового бота такой агент отличается тремя ключевыми возможностями:

  • понимает намерение клиента, даже если он говорит не по шаблону;

  • удерживает контекст разговора и историю обращения;

  • умеет действовать в системах компании, а не только отвечать словами.

Как он работает

Технически голосовой агент состоит из четырёх основных блоков:

  1. STT (Speech-to-Text) — распознаёт речь в реальном времени.

  2. LLM — определяет намерение, строит ответ и решает, нужно ли вызвать внешний инструмент.

  3. TTS (Text-to-Speech) — превращает текст ответа в голос.

  4. Телефония и инфраструктура — обеспечивают маршрутизацию звонков, запись, стабильность и масштабирование.

Вся цепочка должна работать с минимальной задержкой. Если агент отвечает слишком медленно, разговор становится неестественным. На практике качество зависит не только от модели, но и от точности распознавания при шуме, работы телефонии и устойчивости системы при большом числе звонков.

Где AI реально заменяет операторов

Голосовые агенты особенно эффективны в повторяющихся и предсказуемых сценариях:

  • маршрутизация обращений;

  • ответы на простые вопросы о статусе заказа, балансе, расписании;

  • типовые действия: запись, перенос, отмена;

  • первичная квалификация лидов и передача данных в CRM.

В таких задачах они позволяют заметно снизить нагрузку на команду и обрабатывать обращения круглосуточно, без увеличения штата.

Где человек всё ещё нужен

Полностью заменять операторов AI не должен. Лучше всего работает гибридная модель:

  • AI берёт на себя рутину, массовые запросы и стандартные сценарии;

  • человек подключается в сложных, конфликтных, эмоционально чувствительных и нестандартных кейсах.

Поэтому речь идёт не столько о полной замене, сколько о перераспределении работы: AI закрывает поток однотипных обращений, а сотрудники сосредотачиваются на более сложных диалогах.

Что это даёт бизнесу

Внедрение голосовых AI-агентов даёт несколько ключевых преимуществ:

  • масштабирование без пропорционального роста команды;

  • более быстрые ответы и меньше очередей;

  • единый контекст, если агент связан с CRM и другими каналами;

  • аналитика по темам звонков, намерениям клиентов и качеству общения.

Наибольшую ценность агент приносит тогда, когда встроен в бизнес-процессы, а не работает отдельно. В этом случае разговор сразу превращается в действия внутри компании.

На что смотреть при выборе решения

При выборе платформы важно оценивать:

  • качество распознавания речи и синтеза голоса;

  • наличие интеграций с CRM, календарями, заказами и почтой;

  • гибкость настройки сценариев;

  • устойчивость системы при высоких нагрузках.

Итог

В 2026 году голосовые AI-агенты стали полноценным рабочим слоем колл-центров и поддержки. Они хорошо справляются с рутиной, ускоряют обслуживание и снижают нагрузку на операторов. Но максимальный эффект достигается не при полной замене людей, а в гибридной модели, где AI закрывает массовые типовые задачи, а сотрудники работают со сложными случаями.

Теги:
+1
Комментарии0

Юристы, специалисты госорганов и корпоративных служб ежедневно работают с большим массивом нормативно-правовых актов: отслеживают изменения, анализируют требования, готовят ответы и документы. Этот процесс трудозатратен и требует высокой точности.

С НПА сталкиваются не только госорганы, но и:

  • банки и финансы (комплаенс, регуляторка),

  • строительство (СНиП, техрегламенты),

  • промышленность и энергетика,

  • здравоохранение,

  • крупные корпорации —

    везде, где есть нормативная база, есть дорогая ручная работа с правками.

На вебинаре мы покажем, как технологии RPA и AI на платформе ROBIN позволяют создать интеллектуального помощника юриста, который берет на себя до 80% рутинных операций при работе с НПА, оставляя за человеком функцию экспертного контроля. 

Программа вебинара:

  • Покажем, как экосистема ROBIN позволяет выстраивать сквозные процессы автоматизации, объединяя программных роботов, искусственный интеллект и сотрудников.

  • Практический кейс: на примере успешного проекта мы продемонстрируем, как интеллектуальный робот работает с НПА.

  • Технологии под капотом: разберем, как No-Code конструктор позволяет быстро создавать процессы автоматизации, механизм Human-in-the-loop обеспечивает участие специалиста в критических этапах обработки документов, а безопасный Low-Code — гарантирует надежность и управляемость решений, что критически важно для государственных и корпоративных заказчиков.

Для кого вебинар: ИТ- и digital-команды, внедряющие автоматизацию, юристы и специалисты по комплаенсу.

26 марта, 11:00 (Мск), онлайн, бесплатно, требуется регистрация.

Теги:
0
Комментарии0

Писать свои промпты или использовать готовые?

На этапах вывода продукта в релиз (GTM) я, как маркетолог, сталкиваюсь с повторяющимися задачами. Такие задачи можно и нужно автоматизировать с использованием промптов.


Сначала я писал свои несложные промпты, потом пробовал копировать чужие с адаптацией. Углублялся в промпт инженеринг и понял, что умение писать промпты для задач в своей сфере это тоже показатель экспертности. И вот почему:

  • Написание промпта погружает в задачу, начинаешь ее лучше понимать

  • Промпт рождается в определённом, необходимом для меня контексте и работает точнее

  • Я улучшаю промпт итерациями. Это позволяет по штурмовать его, в том числе и разными техниками промптинга

  • Написание промпта улучшает навыки написания ТЗ и постановки задач.

    Это лишь часть плюсов. Из минусов, это конечно затраты времени

Постоянное использование ИИ привело меня к мысли, что навыки коммуникации для написания промптов являются залогом их успеха

Встречал мнение, что использование чужих промтов под свои задачи это показатель дилетанта.
Интересно , что об этом думают в других сферах?

Теги:
+1
Комментарии0

SRE vs ИБ: как не сломать продакшен, пока его защищаешь

Есть две команды, которые искренне хотят одного и того же — чтобы всё работало. Только вот «работало» они понимают немного по-разному. SRE хочет, чтобы сервис не падал. ИБ хочет, чтобы его не взломали. И в точке их встречи рождается… продуктивное напряжение. Об этом и поговорили Михаил Савин, Александр Глухих и Александр Трифанов с гостем подкаста Владимиром Кочетковым — руководителем AppSec Research из Positive Technologies. Получился разговор, в котором никто не делал вид, что всё под контролем.

Что на повестке

Зоны ответственности SRE и ИБ пересекаются там, где цена ошибки выше всего: в продакшене, в инцидентах и в CI/CD. В выпуске обсуждаем, почему автоматические сканеры закрывают не все проблемы, как приоритизировать уязвимости, не останавливая релизы, и кто в итоге отвечает за безопасность системы — особенно в тех самых «ничейных зонах».

Отдельно досталось теме ИИ: почему код, сгенерированный нейросетью, часто приходит с бонусными уязвимостями в комплекте — и что с этим делать.

Если вы когда-нибудь наблюдали конфликт между «нам нужно катить быстрее» и «нам нужно закрыть эту дыру» — этот выпуск про вас.

Слушайте и смотрите на площадках

И подписывайтесь на телеграм-канал Avito SREда

Ещё больше экспертизы собрали для вас на сайте: смотрите наши лонгриды, новости, плейлисты видео. А узнать, как стать частью команды AvitoTech, можно вот здесь.

Теги:
+23
Комментарии0

Самый мощный суперкомпьютер с искусственным интеллектом применят для исследований термоядерного синтеза

Похоже, на наших глазах оформляется следующая техническая революция: скрещивание ИИ, суперкомпьютеров и физического моделирования. Система Sunrise будет использовать методы моделирования на основе ИИ. Министерство энергетической безопасности Великобритании выделило на это $60 млн. Систему установят ​​на территории кампуса Управления по атомной энергии Великобритании. С её помощью учёные смогут лучше понять, что за процессы происходят в термоядерном реакторе. Мощность системы около 1,4 мегаватт. Работать она начнёт в июне.

По словам правительственных чиновников, суперкомпьютер Sunrise обеспечит производительность моделирования в области ИИ до 6,76 эксаФлопс. Это измерение относится к рабочим нагрузкам ИИ, а не к традиционным бенчмаркам суперкомпьютеров, но всё равно представляет значительный рост вычислительных мощностей для программ термоядерного синтеза в стране. Система будет работать на процессорах AMD EPYC и графических ускорителях AMD Instinct, установленных на серверах Dell PowerEdge.  Это уже не классический ИИ, а новый технологический слой, где модель должна не только находить корреляции, но и работать с физикой процесса.

Чуть раньше сообщалось о ещё одном суперкомпьютере Великобритании — Dawn. Его используют не просто для ускорения вычислений, а для задач, где нужно учить модели на стыке данных, симуляций и инженерной реальности. Проект получил поддержку от правительства в $49 млн. Финансирование сделано в рамках британской нацпрограммы AI Research Resource (AIRR), предоставляющей бесплатный доступ к высокопроизводительным вычислениям, обычно доступным только мировым технологическим гигантам. Пользователи AIRR получили доступ к новейшим ускорителям ИИ AMD MI355X.

Dawn, работающий в центре обработки данных в Кембридже, — самый мощный суперкомпьютер для ИИ в Великобритании (пока Sunrise не запустили). В его серверных комплексах работает более тысячи высокопроизводительных графических процессоров Intel (GPU). В настоящее время система Dawn используется учеными в Кембридже и по всей Великобритании в таких областях исследований, как чистая энергия, персонализированная медицина и климат.

За такими кейсами стоит следить. Правительство Великобритании в 2026 году отдельно отмечало применение системы  Dawn для ускорения разработки персонализированных вакцин от рака. А цифровой двойник термоядерного реактора — звучит ещё более фантастически. В таких задачах ИИ работает с научными данными, сложными симуляциями, инженерными ограничениями и цифровыми двойниками. Это революция инструментов, из которых потом и вырастают новые большие технологические платформы, которые и создают технологические революции.

Теги:
+3
Комментарии0

Представлен открытый проект AutoResearchClaw. Это доработанная под исследования версия агента OpenClaw, которая:

  • детально анализирует идею пользователя и выдаёт готовый PDF‑документ с исследованием гипотезы;

  • агент сам пишет код и все формулы, а также запускает тесты, исправляет ошибки;

  • почти не имеет галлюцинаций;

  • вся работа бота проходит 4-этапный процесс верификации по научным базам;

  • умеет работать с LaTeX, чтобы создавать понятные и эффективные графики;

  • сам агент бесплатный — нужен только API.

Теги:
+3
Комментарии0

Для Claude представлен модуль антиплагиата Stop Slop, который убирает из текста все маркеры ИИ. Проект вырезает шаблонные фразы, лишний пафос и делает текст более живым. Можно использовать как в Claude Code, так и в веб‑версии, просто добавив SKILL.md в проект.

Теги:
0
Комментарии1

ИИ-помощник для анализа требований

В работе техпресейла значительная часть времени уходит на анализ требований клиентов — они часто приходят в виде больших опросников, которые нужно внимательно разобрать и прокомментировать.

Когда таких документов много и нужна оперативность, ручная обработка начинает замедлять работу команды. С этим регулярно сталкивалась команда техпресейла Naumen. Поэтому Настя и Даша, системные аналитики команды, решили попробовать автоматизировать часть процесса и внедрили ИИ-помощника для анализа требований.

Рассказываем, как они собирали данные, какие подходы пробовали и как в итоге пришли к решению на базе RAG.

1️⃣ Чем занимается техпресейл

Техпресейл — это мост между продуктом и продажей. Мы проводим технические демонстрации, обсуждаем требования клиента и помогаем понять, подходит ли продукт под его задачи.

Чаще всего работа техпресейла с клиентом начинается с опросника — Excel-документа с требованиями.

2️⃣ Почему Excel-файл оказался неудобным для анализа требований

Типичный опросник — это таблица с тремя колонками:

  • требование клиента

  • какой продукт соответствует

  • комментарии

Иногда требований десятки или сотни — нужно внимательно прочитать, найти контекст в прошлых кейсах, вручную проверить формулировки и ссылки на источники. Даже опытный специалист тратит на такой документ около часа.

Когда таких задач много и у них срочные дедлайны, возрастает нагрузка на команду и появляются риски задержек. Поэтому мы решили автоматизировать процесс.

3️⃣ С чего мы начали автоматизацию

Сначала нужно было собрать данные. Поэтому первым шагом мы:

  1. Собрали все опросники за год в единый массив.

  2. Привели их к единому формату.

  3. Классифицировали требования.

  4. Проверили и почистили данные от дублей и неточностей.

В итоге получился датасет примерно из 2 000 требований, который стал основой нашей базы для тестирования ИИ-помощника.

4️⃣ Почему классические модели не сработали

Первой идеей было использовать классические методы анализа текста. Мы пробовали TF-IDF, Bag-of-Words и стандартные модели классификации.

Но столкнулись с двумя проблемами:

  • низкое качество классификации

  • дисбаланс данных

Большинство требований продукт действительно покрывал, поэтому модель быстро «научилась» отвечать одинаково. Стало понятно, что нужен другой подход.

5️⃣ Как мы пришли к RAG-подходу

Мы перешли к векторному поиску и трансформерам. Идея была в том, чтобы по новому требованию находить в базе знаний похожие требования и использовать их как контекст.

Получился умный поиск по нашим прошлым ответам. Но этого все равно было недостаточно: нужно было не только находить похожие требования, но и генерировать комментарий.

Так мы пришли к подходу RAG (Retrieval-Augmented Generation) — LLM сначала находит факты в базе знаний, а уже потом формирует ответ.

6️⃣ Как работает наш ассистент

Сервис работает в Telegram-боте и поддерживает два сценария.

Вопрос в чате — пользователь задает вопрос, бот ищет информацию в базе знаний и формирует ответ.

Загрузка Excel-файла — пользователь загружает файл с требованиями, после чего сервис проходит по каждой строке и автоматически заполняет:

  • соответствие (да / нет / не знаю)

  • комментарий с объяснением соответствия

7️⃣ Из чего состоит база знаний

Мы используем два источника:

  • документацию по продуктам Naumen

  • структурированные опросники из прошлых проектов

Документы разбиваются на небольшие смысловые фрагменты, для каждого фрагмента вычисляются эмбеддинги, после чего они сохраняются в векторной базе. Когда приходит новый запрос, система находит самые релевантные фрагменты и использует их как контекст для ответа.

8️⃣ Какие есть ограничения у ассистента

ИИ-ассистент помогает быстрее разбирать требования, но полностью заменить аналитика он пока не может.

Например, иногда клиенты присылают требования, которых еще нет в базе знаний. В таких случаях бот отвечает «не знаю», и требование разбирает специалист.

Также иногда встречается типичная проблема LLM — галлюцинации. Поэтому финальную проверку ответа все равно делает системный аналитик.

Теги:
0
Комментарии0

Nvidia показала DLSS 5 – AI для улучшения картинки в играх

NVIDIA анонсировала DLSS 5: нейросеть теперь не масштабирует картинку, а перерисовывает освещение и материалы в реальном времени

Вчера на GTC 2026 NVIDIA показала DLSS 5. Если коротко: это уже не апскейлер и не генератор кадров. Это real-time neural rendering — модель, которая берёт кадр из игры и перерисовывает освещение и материалы до фотореалистичного уровня. Разбираю, что известно из пресс-релиза и почему это принципиально отличается от DLSS 4.

Что изменилось по сравнению с DLSS 4

DLSS был запущен в 2018 году как AI-технология для повышения производительности — сначала через апскейл разрешения, потом через генерацию целых кадров. Технология интегрирована в более чем 750 игр.

DLSS 4.5, представленный на CES в начале этого года, рисует с помощью ИИ 23 из каждых 24 пикселей на экране.

DLSS 5 — качественно другой подход. Вместо апскейла и генерации кадров, DLSS 5 вводит модель нейросетевого рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.

Дженсен Хуанг назвал это «GPT-моментом для графики» — объединением ручного рендеринга с генеративным AI.

Как это работает технически

DLSS 5 берёт на вход цветовые данные и векторы движения каждого кадра, а затем с помощью AI-модели насыщает сцену фотореалистичным освещением и материалами, привязанными к исходному 3D-контенту и консистентными между кадрами. Работает в реальном времени при разрешении до 4K.

Ключевое отличие от видео-моделей типа Sora или Veo: видео AI-модели генерируют фотореалистичные пиксели, но работают офлайн, их сложно точно контролировать, и им не хватает предсказуемости. Для игр пиксели должны быть детерминированными, работать в реальном времени и строго привязанными к 3D-миру разработчика.

AI-модель обучена end-to-end понимать сложную семантику сцены: персонажи, волосы, ткани, полупрозрачная кожа, а также условия освещения (фронтальное, контровое, пасмурное) — и всё это анализируя единственный кадр. То есть модель не просто «улучшает картинку» — она понимает, что в кадре кожа, что ткань, что волосы, и обрабатывает каждый материал по-своему.

Контроль для разработчиков

DLSS 5 даёт разработчикам детальные настройки интенсивности, цветокоррекции и маскирования, чтобы художники могли определять, где и как применяются улучшения, сохраняя уникальную эстетику каждой игры. Интеграция использует тот же фреймворк NVIDIA Streamline, что и существующие DLSS и Reflex.

Это важный момент: модель не навязывает свой «стиль». Разработчик может выкрутить эффект на максимум в одной сцене и полностью отключить в другой.

Какие игры поддержат

Среди подтверждённых: Assassin's Creed Shadows, Starfield, Resident Evil Requiem, Hogwarts Legacy, The Elder Scrolls IV: Oblivion Remastered, Delta Force, Phantom Blade Zero и ещё около десятка тайтлов. Публишеры: Bethesda, CAPCOM, Ubisoft, Tencent, Warner Bros. Games.

Выход — осень 2026. nvidia

Что это значит для индустрии

Разрыв между реалтайм-графикой в играх и офлайн-рендерингом в кино был всегда. Один кадр в фотореалистичном голливудском VFX может рендериться минутами или часами, а игровой кадр должен уложиться в 16 миллисекунд. Преодолеть этот разрыв только вычислительной мощностью невозможно.

NVIDIA предлагает обходной путь: не рендерить «честно» каждый луч света, а обучить нейросеть понимать, как свет взаимодействует с материалами, и достраивать результат в реальном времени.

Если технология сработает так, как описано — это меняет экономику игрового рендеринга. Вместо того чтобы тратить ресурсы GPU на точный расчёт каждого отражения, разработчик отдаёт «черновой» кадр нейросети, которая доводит его до фотореалистичного уровня.

Но пока это анонс на GTC без публичных бенчмарков. Реальное качество покажут осенние релизы.

Кто следит за развитием нейросетевого рендеринга — как оцениваете подход NVIDIA? Насколько реалистичны заявления про real-time neural rendering при 4K, если текущие видеомодели даже офлайн требуют серьёзных вычислений?

Теги:
+4
Комментарии1

Кейс из личной практики: Claude Code + Chrome = 🚀

Продолжаю удивляться тому, на что способен Claude Code. Уже никого не удивишь тем, что он может накодить приложение или сайт с нуля. Но как насчет «реверс‑инжиниринга» через Chrome?

Кейс

Есть корпоративная CRM система. В ней куча данных, которые показываются в преднастроенных отчетах. Очень монструозная и негибкая штука. 

Заказчик резко начинает хотеть с ней «говорить» на естественном языке, да ещё и смешивать данные из разных отчетов. Система кастомная и совершенно под это не заточена. А за счет своего размера — адаптировать ее заняло бы месяцы. Что делать? 

Правильный путь — спроектировать консистентные датамарты, сделать семантический слой с описанием всех данных, написать MCP сервер поверх этой системы на основе ее API.

Реальность — времени на это нет. Нужно навайбкодить proof of concept!

Ok, это заняло 3 часа 😎

  1. Устанавливаем Claude расширение в браузер Chrome и настраиваем коннектор с Chrome в Claude Code. 

  2. Даем ссылку на UI нашей CRMки клоду и просим его внимательно изучить архитектуру, API запросы под капотом и на основе этого спроектировать MCP сервер. Причем никаких пояснений к системе не требуется, даже на swagger ссылка не нужна. 

  3. 20 минут Opus тыкает интерфейс, читает запросы и внимательно изучает метрики, настройки, фильтры и группировки и тд. Результат записывает в MD файл. Туда же он пишет предлагаемую архитектуру MCP.

  4. Далее просим Claude написать MCP сервер по полученному файлу и локально его задеплоить.

  5. Профит! Спустя пару часов получаем рабочий MCP сервер поверх системы, которая для этого никогда не строилась. 

  6. Дальше Claude прописывает себе этот MCP как тул. И вот уже из дефолтного приложения Claude мы можем естественным языком задавать вопросы к данным в CRMке. А тк это делает клод — то поверх этих данных есть возможность строить графики, интерактивные визуализации, дашборды и отчеты. Бесконечная гибкость.

Все это без привлечения разработчиков и написания единой строчки кода руками. 

В общем, с расширением в Chrome, Claude — просто машина 💪

Больше интересного про AI агентов и технологии в моем канале Заместители.

Теги:
0
Комментарии8

Anthropic представила исследование, которое показывает, что влияние ИИ на рынок труда пока значительно ниже его теоретического потенциала. В статье представлена новая метрика под названием observed exposure («наблюдаемое воздействие»). Она сравнивает теоретические возможности языковых моделей с реальными данными их использования, в данном случае на основе разговоров пользователей с чат-ботом Claude. Для анализа были объединены данные базы профессий O*NET, оценки того, какие задачи теоретически могут ускоряться с помощью ИИ, а также статистика фактического использования Claude в рабочих сценариях.

Результаты показали значительный разрыв между потенциалом и практикой. По оценкам исследователей, языковые модели теоретически способны ускорить выполнение 94% задач в компьютерных и математических профессиях. Однако на практике ИИ применяется лишь примерно в 33% таких задач. Большинство возможностей технологий остаётся нереализованным из-за ограничений самих моделей, юридических требований, необходимости человеческого контроля или сложной интеграции с профессиональными системами.

Сравнение теоретической способности языковых моделей автоматизировать задачи в различных профессиональных категориях (синий) и фактического уровня их использования на практике по данным взаимодействий с моделью Claude (красный). Источник: Anthropic.
Сравнение теоретической способности языковых моделей автоматизировать задачи в различных профессиональных категориях (синий) и фактического уровня их использования на практике по данным взаимодействий с моделью Claude (красный). Источник: Anthropic.

Исследование также выявило, какие профессии сейчас наиболее подвержены влиянию ИИ. На первом месте оказались программисты — около 75% их задач могут выполняться или ускоряться с помощью моделей. Далее следуют специалисты службы поддержки, операторы ввода данных и аналитики. В то же время примерно 30% работников практически не затронуты использованием ИИ: среди них повара, бармены, спасатели, механики и другие профессии, связанные с физическим трудом.

Теги:
+4
Комментарии1

Компания Mistral AI представила большую языковую модель Leanstral. Это проект для разработки приложений с помощью вайб‑кодинга и оптимизированный для формальной верификации кода. Предполагается, что Leanstral может применяться для создания ИИ‑ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок.

Leanstral стала первой открытой моделью, поддерживающей язык программирования Lean 4 и связанный с ним инструментарий для проверки математических доказательств. Lean 4 предоставляет возможности для математического доказательства корректности кода и его соответствия спецификации, что в контексте вайб‑кодинга позволяет подтвердить, что сгенерированный ИИ‑моделью код делает именно то, что задумано.

Модель Leanstral охватывает 119 миллиардов параметров (6.5 млрд активируемых параметров на токен), учитывает контекст в 256 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Leanstral занимает 121 ГБ и пригоден для использования на локальных системах. Для локального запуска могут применяться библиотеки vllm, transformers и SGLang.

Для оценки возможностей ИИ-моделей с учётом качества проведения формальной верификации кода и написания математических доказательств разработан новый набор тестов FLTEval. В проведённых тестах модель Leanstral обогнала существующие открытые модели Qwen3.5 397B‑A17B, Kimi‑K2.5 1T‑A32B и GLM5 744B‑A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6. В частности, модель Opus набрала 39.6 баллов, а Leanstral — 21.9 при одном проходе и 31.9 при 16 проходах. При этом затраты при использовании Opus составили $1650, а Leanstral — $18 при одном проходе и $290 при 16 проходах. Модель Haiku набрала 23 балла при затратах $184, а модель Sonnet — 23.7 при затратах $549.

Теги:
0
Комментарии1

Продолжаю публиковать объемные ответы как посты...

Верховный суд США отказался рассматривать апелляцию Стивена Талера, который пытался оспорить решения нижестоящих инстанций и Бюро по авторским правам. Коллегия судей оставила в силе фундаментальный принцип: правовая защита интеллектуальной собственности закреплена исключительно за человеком.

Сейчас на рассмотрении находится параллельное дело Allen v. Perlmutter, где художник использовал 624 промпта для создания изображения. Бюро по авторским правам отказало ему, заявив, что даже 624 промпта — это недостаточный контроль, так как ИИ «сам определяет структуру и тон» финального изображения...

Казалось бы аллилуйя! Нейрослоп — общественное достояние и не принадлежит ни автору программы, ни авторам промптов:

знания, которые раньше были распределены по тысячам проектов, постепенно превращаются в общий справочник.

НО... реально суд просто отложил решение. Почему? Чтобы доказать, что «автор» — это человек, суд перечислил множество пунктов, которые «не работают» с машиной: наличие вдовы и детей для наследования, необходимость подписи, наличие срока жизни и так далее

Есть еще одна юридическая карта, которая не играла. Корпоративное владение. У корпорации нет вдовы и детей, но доктрина «work made for hire» (работа, выполненная по найму) позволяет считать корпорацию автором. На AI слоп может быть установлено корпоративное владение. И тогда «общий справочник» быстро станет закрытым.

Вспомните дела Аарона Шварца или решения против создателей Sci‑Hub Александры Эльбакян. Как раз из разряда

В математике никто не владеет теоремой Пифагора. Её доказали, опубликовали, и она стала частью общего инструментария. То же самое произошло с рядами Фурье, с уравнениями Максвелла, с преобразованием Лапласа. Они вошли в учебники и перестали быть чьей‑то собственностью.

и это именно корпоративное владение.

В деле хакеров суд защищает права не‑человека (корпорации Elsevier или JSTOR) на тексты, написанные людьми (учеными).

Ученые пишут оплачивая публикацию или работая на грантах не получая авторских прав, передают права издательству, а затем университеты (те же самые ученые через библиотеки) покупают эти статьи обратно за миллионы долларов. НО прецедент говорит: «Закон на стороне того, кто купил права, а не того, кто создал знание».

Поэтому важно в разговоре об «эксплуатации Open Source» не забывать «про вирусное наследование» на производные произведения и прочие сформированные механизмы защиты открытого кода.

Теги:
+2
Комментарии0

Речевая аналитика на базе ML и LLM помогает лучше понять клиентов

Начальник центра обучения и контроля качества контакт-центра ОТП Банка Ольга Сухарева и начальник отдела развития голосовых роботов и речевой аналитики в Collection Светлана Рабехова представили результаты внедрения AI-инструментов речевой аналитики Naumen в коммуникации с клиентами. Выступление спикеров состоялось в рамках отраслевой конференции Naumen, посвященной цифровой трансформации финансового сектора.

Эксперты рассказали, что в ОТП Банке на платформе речевой аналитики выстроена двухуровневая система анализа диалогов: на базе классических ML-моделей и больших языковых моделей — LLM. ML отвечает за массовые задачи: классификацию тематик, базовый контроль алгоритмов, автоматическую оценку всех звонков и чатов. LLM модель подключается там, где требуется глубокое понимание контекста, эмоций клиента и нюансов переговоров. Такой гибридный подход позволяет банку не только повысить качество сервиса и лучше понимать клиентов, но и получить измеримый экономический эффект.

Как отметила Светлана Рабехова, речевая аналитика давно перестала быть просто инструментом контроля и сегодня выступает драйвером бизнес-показателей. Автоматическая оценка позволила анализировать 100% диалогов с клиентами, что привело к росту выполненных обещаний по оплате задолженности на 5,5%.

Важно также отметить, что среднее время анализа одного диалога экспертом уменьшилось в 20 раз — с 7 минут до 20 секунд: можно быстро ознакомиться с сутью разговора без необходимости прослушивать полный диалог.

Ольга Сухарева рассказала о реальных примерах внедрения инструмента в Контакт-центре и поделилась результатами. Автоматическая оценка помогла на 1,7% чаще решать вопросы клиентов с первого обращения. Среднее время обработки звонков сократилось на 5 секунд, а конверсия в продажи выросла на 3,3%.

Благодаря точному аудиту жалоб доля обращений в ЦБ РФ снизилась на четверть. Также выросла точность начисления сорри-бонусов с 85% до 97%.

Теги:
0
Комментарии0

Как оставаться востребованным в турбулентное время: 10 бесплатных демо-уроков

Привет, Хабр. Делимся подборкой бесплатных уроков, которые пройдут в Отус в рамках набора на курсы. Опытные практики проведут занятия онлайн — на них вы сможете узнать больше о формате обучения и задать вопросы. Выбирайте тему и присоединяйтесь, чтобы не отставать от трендов.

Теги:
+2
Комментарии0

Улучшаем моего агента. Часть 4

Это четвертая часть серии (первая — в чем идея, вторая — агент с нуля, третья — что внутри).

В таких цитатах я буду показывать конкретные запросы, которые он уже хорошо решает.

———————

Поехали ⤵️⤵️⤵️

💲 Ведет учет всех моих финансов

Подключён к моей финансовой табличке, которую я веду в Notion. Умеет добавлять по категориям и анализировать отчеты даже за целый год (а записей там огромное количество).

«Посчитай доходы за последний год — покажи где и сколько я зарабатывал»
«Сколько я должен провести в налоговую за этот месяц?»
«Кто и когда мне заплатил и кто ещё должен по рассрочке курса?»

🌈 Подключен к моей гугл почте

Читает Gmail и пишет мне сводку каждое утро — есть ли там что-то интересное. Отвечать на входящие пока ему не разрешаю, может только драфты писать

«Глянь что мне там интересного пришло за эту неделю»
«Напиши жалобу в Lazada по поводу последнего ордера, он не пришел. Ордер в почте лежит, возьми номер оттуда»
«Напиши драфт в ответ на сообщение Username, я гляну попозже»

🍀 Календарь

Видит расписание, создаёт и удаляет события.

«Поставь созвон на вторник 15:00 и напомни за час»
«Поставь ученикам второго потока рекурентную встречу раз в две недели, их почты знаешь где найти»
«Глянь че у меня по слотам на понедельник, поставь созвон куда‑то на обед + дай sharable ссылку сюда»

🖥 Таск-трекер

Подключён к моему TickTick — откуда читает и пишет задачи. Каждый день пишет сводку задач, что нужно сделать с высоким приоритетом.

«Что у меня просрочено? И добавь задачу: обновить лендинг до пятницы»
«Проведи анализ моего сайта и кинь ToDoшкой себе в память + мне в TickTick»
«Добавь всем задачам в разделе Мое обучение Definition of Done. Если не уверен в том, какой должен быть DoD — пингуй»

🔥 Apple Watch — факин маджик

Два дня потратил на то, чтобы на ходу с руки записывать идеи сразу в Clawy

⌚️ «Запиши идею поста» (наговариваю прямо в часы)
⌚️ «Заправился, запиши 400 бат себе»

В общем все те кейсы что выше, но через часы.

🎶 Spotify + концерты

Знает все группы, которые я слушаю. Раз в две недели мониторит концерты в интернет. Ставит напоминалки и скидывает ссылки на покупку билетов.

«Че там какие концерты моих групп в Бангкоке в ближайшие 2 месяца?»

🌴 Знает где я живу, вплоть до точных координат

Поэтому рекомендации конкретные — не «в мире», а «рядом со мной».

«Найди хорошего стоматолога рядом»
«Хочу поехать в кафе, глянь что‑то прикольное в радиусе 5 км»

Ну и еще

Есть доступы на чтение к моим гугл таблицам и гугл драйву. Знает много инфы про мой психотип и различные тестирования.

———————

🦄 Комбинированные кейсы

Нужно проставить мне и всем ученикам в календарь созвоны на третий поток.

Глянь сайт, там точное название, описание и время уроков
Поставь в календарь их все
А почты учеников глянь в табличке 3 потока

→ На сайте забирает инфу про уроки, почты берет из таблички. Затем ставит всем встречи в календарь.

Подведи итоги за неделю

→ Собирает доходы из Notion, выполненные задачи из TickTick, события из календаря, важные письма из Gmail. Выдаёт: заработал X, потратил Y, закрыл 8 задач из 12, пропустил 2 дедлайна. Рекомендация на следующую неделю.

[с Apple Watch] «Что на сегодня у нас?»

→ «Есть один созвон в 14:00. В TickTick: обновить лендинг (дедлайн сегодня). Вчера пришло письмо на почту — ответ от Anthropic по поводу твоей проблемы. Черновик ответа готов, глянешь после завтрака?».

«Нашел такую приколюху в интернете. Изучи ее и напиши план на улучшение самого себя, потом можешь внести эти изменения».

→ Изучит идею и улучшит себя и свой функционал.

———————

👁 Что еще хочу развить

Голос — чтобы отвечал голосовыми, иногда удобнее войсом, чем текстом.

Звонки — чтобы звонил мне. Например, в 11 вечера, чтобы я сделал саммари дня. Или если я не делаю задачу, чтобы звонил мне иговорил мне «втф чел».

Доступ к Telegram — сейчас он не видит мои чаты, только если пересылать сообщения ему. Хочу подключить Telethon — чтобы мог сам читать переписки, мониторить каналы, готовить черновики ответов.

Тамагочи получается 🎮

Это мой агент сделал себе такое Identity -- он чертный кот
Это мой агент сделал себе такое Identity -- он чертный кот. Сказал что он фамильяр с именем Clawy
Теги:
-4
Комментарии0

Зелёные тесты ≠ хорошие тесты

Впервые в истории писать тесты стало легко и совсем не страшно. Вокруг теперь у всех покрытие 80%, 90%, а то и вовсе 100%. И вот тут начинается проблема: зелёные тесты ≠ хорошие тесты.

Проблема в метрике, которой мы все привыкли доверять. Code coverage считает строку протестированной, если она выполнилась во время теста. Всё. Не «поймает ли тест баг в этой строке», не «проверяет ли он правильность результата» — просто выполнилась. Можно написать тест без единого assert, и покрытие вырастет. 500 тестов, 90% coverage, а пользы ноль.

Мутационное тестирование — это совершенно другой путь. В простейшей реализации этот инструмент тупо берёт твой код и намеренно ломает его: меняет > на >=, + на ‑, True на False. Каждая такая поломка — мутант. Если после мутации все тесты по‑прежнему зелёные — значит они ничего не проверяют. Покрытие есть, защиты нет.

Почему это важно именно сейчас?

Потому что нейронка любит зелёненькое. Чем больше зелёных тестов — тем субъективно лучше. 100 тестов внушают больше доверия, чем 10, правда? А внутри там assert response.status_code == 200. assert result is not None. assert len(items) > 0. Тест проверяет, что функция вернула хоть что‑то — и радостно зеленеет. Поменяй логику условия, перепутай знак, сломай граничный случай — тест всё равно зелёный. Потому что он проверяет не правильность, а наличие.

Мутационное тестирование — единственный автоматический способ это поймать. Метрика называется mutation score: процент убитых мутантов. 60% — плохо. 90%+ — тесты реально что‑то защищают.

Кое‑какие инструменты для такого тестирования уже есть: mutmut и cosmic‑ray для Python, Stryker для JS/TS, PIT для Java. Медленно? Да, значительно медленнее обычного тест‑рана. Но запускать его не нужно на каждый коммит — достаточно на PR в критические модули.

Но есть нюансы. А где их нет, правда?

Первый: мутации рандомные. Замена > на >= — это не баг, который кто‑то реально допустит. Это синтетическая поломка. Половина мутантов генерирует код, который в реальности никогда не появится. Ты тратишь время на убийство мутантов, которые не имеют отношения к настоящим ошибкам. Это как тестировать замок, ковыряя его вилкой — формально проверка, по факту мимо.

Второй — ещё хуже. Чтобы убить мутанта, тест должен зафиксировать конкретное поведение. Каждую ветку, каждое значение, каждый edge case. Доведи mutation score до 100% — и ты прибил гвоздями каждую строчку кода. Буквально. Теперь попробуй отрефакторить. Переименовал внутренний метод — 40 тестов красные. Поменял порядок полей в ответе — ещё 20. Тесты превращаются из страховки в кандалы: код работает правильно, но тесты падают, потому что они проверяют не поведение, а реализацию.

Это реально ловушка. Слишком гонишься за mutation score — получаешь хрупкие тесты. Не гонишься — получаешь видимость тестирования.

Перемены — впереди!

И вот тут становится по‑настоящему интересно. Представь, что мутации генерирует не тупой набор правил «замени плюс на минус», а нейронка, которая понимает контекст. Которая знает, какие баги реально встречаются в таком коде. Которая мутирует не синтаксис, а логику: меняет порядок проверок, путает граничные условия, забывает обработать edge case — ровно так, как ошибается человек. Или другая нейронка.

Сейчас есть явный сдвиг в сторону таких инструментов, но всё еще ничего достойного не вышло. Но уже скоро точно появится. И это будет совсем другой уровень. Не «выжили ли тесты после рандомной поломки», а «выжили ли тесты после правдоподобной ошибки».

Парадокс в том, что мутационное тестирование было нишевым инструментом, пока тесты писали люди. Когда тесты пишет нейронка — идея становится обязательной. Правда инструменты пока не успели дозреть.

Ждём, когда мутанты станут умнее.

Теги:
+7
Комментарии3

Obsidian Hybrid Search | GitHub

Разработал MCP-сервер и CLI для гибридного поиска по хранилищу в Obsidian.

Теги:
+1
Комментарии0

Делаем проактивного AI-агента.
Часть 3 — настраиваем OpenClaw, чтобы был полезным

«Вы не поднимаетесь до уровня своих целей. Вы падаете до уровня своих систем»

Это третья часть серии (первая — в чем идея, вторая — агент с нуля)

Теперь поговорим про OpenClaw — самый популярный на сегодня фреймворк для персональных AI-агентов

Архитектура моего OpenClaw

Агент живёт на сервере Railway, общается со мной через Telegram и Discord, работает через подписку Claude с Codex на подстраховке. Его поведение целиком определяется набором markdown-файлов — там и «SOUL», и память, и операционные инструкции.

Вот из чего состоит workspace моего агента

  • SOUL.md — кто агент. Характер, стиль, границы. Его «душа».

  • USER.md — кто я. Контекст, цели, паттерны, как со мной работать.

  • AGENTS.md — правила поведения. Safety, тиеры действий, память, heartbeat, группы.

  • MEMORY.md — долгосрочная память, кураторские заметки.

  • HEARTBEAT.md — чеклист периодических проверок (календарь, почта, задачи).

  • TOOLS.md — локальные заметки по инструментам.

Плюс memory/YYYY-MM-DD.md — ежедневные заметки, из которых потом дистиллируется MEMORY.md.

И skills/ — папка со скиллами (finances, ticktick, gmail, google-calendar и т.д.), каждый со своим SKILL.md.

По сути: SOUL + USER + AGENTS — это характер и инструкция, MEMORY — опыт, skills — его навыки.

Из коробки агент работает, но бесполезен без кастомизации. Ниже — проблемы, на которые я убил неделю, и их решения

⚡Проблема 1: Повышенная проактивность

По стандарту системные промпты OpenClaw звучат примерно так:

Don't ask permission. Just do it.

Это делает агента слишком самостоятельным — он может сломать себя без предупреждения.

Решение: я добавил несколько ограничений. Все важные изменения идут через localhost => GitHub, а не через его прод. На попытки изменить системные файлы агент теперь отвечает:

«Нет, это конфиг — мне запрещено его трогать. Если я накосячу с конфигом на Railway, всё упадёт в crash loop и только ты сможешь починить.»

Стандартная проблема без этого: агент что-то у себя меняет, и либо я этого не замечаю, либо он просто умирает, сломав что-то важное

⚡Проблема 2: Память — не только его храм, но и помойка

Механизм памяти в OpenClaw:

  • MEMORY.md — долгосрочная память.

  • memory/YYYY-MM-DD.md — ежедневные заметки.

  • Встроенный хук session-memory — при завершении каждой сессии фреймворк автоматически сохраняет сырой лог разговора в memory/.

Проблема: если часто жать /new, за короткое время накапливается огромное количество raw JSON файлов, которые сыпятся в контекст при старте каждой сессии. Мои MD-файлы состояли из 299 строк, из которых полезных фактов — 5. Всё остальное — мусор метаданных. Дистиллированная версия уместилась бы в 10–15 строк.

При этом долгосрочная MEMORY.md — почти пустая. Инструкция «periodically review and update» была слишком размытой и ни разу не сработала.

Решение: явные правила дистилляции и регулярный перенос из дневных заметок в MEMORY.md с очисткой сырых логов

⚡Проблема 3: USER.md — главный файл, и он требует постоянного внимания

USER.md — это файл о вас. Чем лучше он описан, тем лучше агент работает. Моя структура:

  • Basics — имя, возраст, таймзона, локация, язык

  • Who — тип личности, суперсила, мотивация

  • Background — опыт и ключевые достижения

  • Values — что важно в жизни

  • Current focus — чем занят сейчас (продукты, статусы)

  • Finances — доход, расходы, цель

  • Platforms — соцсети и каналы

  • People — ключевые люди вокруг

  • Schedule — режим дня

  • Work style — как работает, что драйвит

  • Patterns — слепые зоны и паттерны поведения

  • Goals — текущие цели и метрики

  • How Claw should interact — правила общения

Главный вывод 3 части

Workspace-файлы агента — это не «написал и забыл». Они дрифтуют, конфликтуют и устаревают точно так же, как код.

USER.md — особенно. Я и контекст вокруг меня меняются быстрее, чем я вспоминаю обновлять описание. Поэтому нужна периодическая ревизия — точно такая же, как ревизия кода.

Если кратко: персональный AI-агент — это не продукт, а процесс. Фреймворк даёт скелет, но без недели (минимум) кастомизации под себя он останется бесполезной игрушкой

Теги:
+1
Комментарии0

К 2060 году андроидов может стать больше, чем автомобилей

Аналитики Bank of America опубликовали прогноз: рынок гуманоидных роботов способен вырасти до 4 млрд устройств по всему миру. Примечательно, что большинство из них окажется не на производственных линиях, а в жилых домах.

62% — домашние роботы

По оценке аналитиков, около 2 млрд гуманоидов будут использоваться в быту: уборка, уход за пожилыми, рутинные домашние задачи. Для сравнения — сегодня проникновение таких устройств практически нулевое. Технология только начинает выходить из стадии лабораторных прототипов.

Почему это может случиться

Основной драйвер — демографический. Население стареет, рабочей силы становится меньше, спрос на автоматизацию растёт. В этом контексте даже несовершенный гуманоид может оказаться экономически оправданным.

Аналитики формулируют условие просто: роботу не нужно быть лучше человека. Достаточно быть дешевле. Плюс работа без выходных, отпусков и увольнений по собственному желанию. Если юнит-экономика сойдётся — масштабирование может произойти быстро.

Что это означает на практике

Если прогноз реализуется, гуманоидные роботы пройдут тот же путь, что смартфоны и автомобили — от нишевой экзотики до массового устройства в каждом доме. Вопрос в этом сценарии уже не «случится ли это», а «в каком десятилетии».

Отдельный интересный момент: порог входа для массового рынка — это не технологическое совершенство, а ценовая точка. Как только стоимость опустится ниже годовой зарплаты домашнего персонала в конкретной стране, рынок в этой стране может открыться резко.

Теги:
0
Комментарии2

Смена контекста как способ разблокировать LLM на сложной задаче

Как это сработало
Как это сработало

Полчаса пытался получить от Claude Opus 4.6 корректный Wi-Fi индикатор в HTML — один в один как в статус-баре iOS. Казалось бы, простая задача: три дуги, острый уголок внизу, правильные отступы и одинаковая толщина линий.

Но нет. Уголок упорно оставался тупым, ширина дуг гуляла от итерации к итерации, отступы были кривые. Классика жанра — как центрирование div для фронтендеров, только в 2026 году и с нейросетью.

В какой-то момент я не выдержал и написал буквально: «ты ничего не можешь, пойду в Codex, он точно справится».

Claude немедленно перестроился, придумал принципиально другой подход к генерации SVG и с первой попытки выдал почти идеальный результат.

То есть модель полчаса водила меня по кругу, а как только почувствовала угрозу конкуренции моментально нашла решение, которое явно существовало всё это время.

Природа этого поведения неясна: то ли это что-то вроде «мотивации» через отрицательный стимул, то ли модель просто переключает стратегию при смене контекста разговора, то ли это банальное совпадение.

Но лайфхак задокументирован и воспроизводим. Если Claude заходит в тупик на технической задаче — попробуйте упомянуть Codex или Cursor. Иногда помогает.

Теги:
+2
Комментарии6

32 открытых урока недели: закрываем пробелы в знаниях

Привет, Хабр. Делимся подборкой бесплатных уроков, которые проведут на этой неделе преподаватели Otus. Это не предзаписанные, а живые онлайн-встречи — на них вы сможете узнать больше о формате обучения и задать свои вопросы экспертам. Выбирайте тему ниже и присоединяйтесь!

16 марта, понедельник:

17 марта, вторник:

18 марта, среда:

19 марта, четверг:

23 марта, понедельник:

Для начинающих рекомендуем обратить внимание на короткие видеокурсы, которые помогут закрепить основы, сейчас всего за 10 рублей:

Теги:
+8
Комментарии0

Переходим полностью к тестам датасета COCO. День 4.

Пока Альтман рассуждает о бороздящих кораблях Вселенную и о моделях, которые будут после трансформеров, мы делаем. Такое вступление я придумал для статьи, когда мы закончим с экспериментами и доделаем пилот, а пока продолжу дневник обучения TAPe-модели. Комуинтересно: начало тут, здесь и там, а немного про методы TAPe (Теории активного восприятия) в области обработки информации — здесь.

Сначала протестировали эту же модель с тем же числом параметров на большом датасете COCO. Без оптимизации получили решение с точностью 60.59%, что является очень высоким для такой модели (невозможно высоким даже, такая модель по идее не должна сходиться и находить общее решение из количества параметров, но данные TAPe позволяют). Пока сложно сравнить с конкретной метрикой других моделей, потому что мы не строим рамки вокруг предмета, но находим конкретно центр объекта. Это проведем позже. 

Тренировка на процессоре как минимум не дольше, чем тренировка на видеокарте, поэтому мы ограничены только количеством данных на ОЗУ в TAPe‑формате — что не является ограничением в целом, можно весь датасет уместить одновременно там
Пока существуют несколько проблем:

  • Количество ложных срабатываний (скорее симптом, но все же);

  • Не самая лучшая классификационная точность (тоже в большой степени симптом);

  • Неправильное центрирование объектов (немного ограничение детекции, но есть способы обойти);

  • Размерность COCO;

Начали экспериментировать, чтобы найти решения, при этом также экспериментируем с несколькими предметами, с которыми ранее уже хотели провести эксперимент.

Конкретно:

Работа матрицы преобразования на данный момент времени немного линейная. Зависимости по большей части линейные (то есть, независимые друг от друга). Это не хорошо, по понятным причинам, но в тоже самое время это помогло перейти к пониманию одного факта: в найденном нами подходе, о котором писали выше, есть как раз нелинейная зависимость коэффициентов друг от друга. Эту связь нужно выстраивать вручную, в зависимости от градиентного спуска и deep learning, но в нашем случае связи по TAPe известны заранее,
Дополнительно начинаем вторую фазу создания решения, чтобы можно было захватывать объекты любого размера. Это должно привести к намного более точным ответам, при этом ускорив модель. 

Ну и решаем еще одну проблему: модель учится определять бэкграунд, но имеет сложности определять объекты со стороны классификации. То есть — большая часть тренировки потери идет в сторону тренировки хорошей точности в бэкграунд, что приводит к ложным срабатываниям, потому что текстуры на заднем плане превращаются для модели в что‑то напоминающие объект, пусть и с низкой точностью.

Дальше планируем продолжить работу с полным датасетом (используя 2% из него для быстрых тестов — это около 2400 изображений).

Теги:
0
Комментарии0

Андрей Карпаты представил проект US Job Market Visualizer, где можно узнать, когда ИИ заберёт определённую работу — это карта рисков автоматизации по 342 профессиям.

Автор проанализировал данные по рынку США: с требованиями к образованию работников, средней зарплате и обязанностям, превратив всё это в интерактивную карту. Чем больше блок, тем больше людей в профессии, а цвет показывает шанс остаться без работы по десятибалльной шкале.

Теги:
+1
Комментарии2

Как мы ушли от всем известного способа градиентного спуска

Продолжаю дневник разработки «Суперраспознавалки» для демо/пилота. День третий. Основная задача: настроить TAPe‑модель на датасет типа COCO под задачу detection. Вторая — дать клиентам возможность добавлять собственные классы к уже существующим. Ну и далее, при необходимости, полная адаптация модели под конкретного заказчика. Поскольку у нас есть Теория активного восприятия с ее методами, на выходе заказчик должен получить кратную эффективность и кратную экономию ресурсов.

В первые два дня настраивали базовую струтуру сегментации, детекции и классификации. Модель решает задачи на обучении уже 115 тыс параметров — в отличии от YOLO, которой мало 2 млн + параметров.

Начало здесь

Второй день здесь

Про архитектуру TAPe+ML здесь

Тут сравнение трех десятков кодировок в задаче сегментации видео в DBSCAN (включая ViT, DINO) с TAPe

День 3

Сегодня занимаемся исправлением количества ложных срабатываний. Проблема ложных срабатываний в целом в том, что мы смотрим в первую очередь на текстуру изображения (из‑за особенностей методов TAPe). Поэтому приходится прибегать к менее‑обычным способам для обучения разделения между текстурой заднего плана (в каком‑либо виде, будь это снег, или трава) и текстурой самого объекта.

Сейчас эта проблема решается условно через определенные движения области сбора данных для выявления текстур, которые, возможно, не были найдены в области, расположенной стандартным способом (то есть начальным разбиением изображения на патчи). Это позволяет сильно уменьшить количество ложных срабатываний.

На данный момент времени около 220 объектов срабатывают без ложных срабатываний в целом. Проблема происходит только в изображениях с большим количеством маленьких деталей по типу гравия, или же травы, при этом не уменьшая общее количество правильных нахождений.

В целом, здесь помогают стандартные ML‑подходы по типу увеличения батчей, чтобы сгладить ошибки. Были эксперименты с проведением аугментаций, которые не привели к улучшению результатов: большая часть аугментаций просто повторяют уже существующие данные.

Также начали эксперименты с добавлением цветовых каналов. Однако проведенные эксперименты с цветами в простой схеме объединения features по каналам не дало желаемых результатов: даже с greyscale мы забираем столько информации, что цветовая гамма по большей части их просто дублирует. Это приводит к тому, что модель опирается слишком сильно на общие черты, не «видя» при этом выдающиеся черты разницы цвета. Что в то же самое время может и являться хорошей фичей, а не багом, потому что через разницу в текстуре мы, по идее, должны найти разницу в любом случае (если это реальное изображение). Поэтому мы не полагаемся в решении на конкретную задачу, где цвет более релевантен, а полагаемся на общее решение детекции в целом.

Также на заднем плане были закончены эксперименты с разными архитектурами (эксперименты продолжались параллельно несколько дней). Нашли самую лучшую архитектуру на данный момент (самая логичная по её смыслу, как нам кажется). Тут без подробностей, но мы ушли от всем известного способа градиентного спуска, что позволяет нам после тренировки модели прийти к глобальному минимуму решения (или к чему‑то очень близкому к этому — всё равно есть зависимость от задачи).

Мы собираем данные из патчей определенным образом, объединяем их в общее описание, а затем уже классифицируем конкретно эти объединения по тому, есть там объект или его нет. Классификация происходит за счет общих описаний каждого класса, который модель видит — и не тренируется отдельно, потому что исходит натурально из первичной тренировки векторов, а затем сводится к одному описанию через k‑means.

В результате выходит модель с очень малым количеством ложных срабатываний — с которыми, впрочем, мы все равно боремся. Плюс есть некие проблемы центровки, так что скорее всего количество параметров увеличится. Но все равно, модель работает чрезвычайно быстро. Тренировка как таковая проходит на CPU (так проще).

Теги:
0
Комментарии0

Представлен открытый проект JobSync — Job Search Assistant для поиска работы с помощью ИИ:

  • ИИ мониторит подходящие для вакансии, правит резюме и адаптирует под каждый отклик.

  • мониторинг и трекинг вакансий: можно вести учет заявок, офферов, компаний, должностей и текущих статусов.

  • анализ рынка труда делают, например, Llama 3.2 или Deepseek, можно подключить и другие модели с помощью Ollama.

  • есть встроенный трекер задач и созвонов с рекрутерами.

  • создаёт и корректирует различные версии резюме — сервис за секунду адаптирует портфолио под любую вакансию.

  • работает полностью локально.

Теги:
+6
Комментарии0

Генеральный директор стартап в сфере ИИ и разработки ПО Emergent Мукунд Джа предупредил о ключевых рисках для быстро набирающего популярность вайб-кодинга:

  • главной угрозой остается качество создаваемого кода. По словам Джа, современные инструменты способны быстро генерировать приложения, однако такие решения часто оказываются нестабильными, содержат ошибки или плохо масштабируются. «Есть большая ставка на то, что качество создаваемого программного обеспечения будет экспоненциально расти. Если этого не произойдет, это станет серьезной угрозой», — отметил Джа;

  • вторым риском для индустрии Джа назвал сам дальнейший прогресс ИИ. По мнению эксперта, развитие автономных ИИ-систем может привести к тому, что рынок «перепрыгнет» традиционный этап разработки приложений. «Мы прошли путь от телефонов Nokia к BlackBerry, а затем все перешли на iPhone. Возможно, программное обеспечение окажется тем самым BlackBerry», — сказал Джа. В будущем пользователи могут все чаще полагаться на ИИ-агентов и языковые модели, которые выполняют задачи напрямую, без необходимости устанавливать отдельные приложения.

Теги:
0
Комментарии0

Genspark AI Workspace 3.0: агент Claw

12 марта Genspark выпустил шесть новых продуктов сразу. Главный — Genspark Claw, агент с выделенным облачным компьютером на борту
12 марта Genspark выпустил шесть новых продуктов сразу. Главный — Genspark Claw, агент с выделенным облачным компьютером на борту

1. Genspark Claw + облачный компьютер

Главная новинка. Каждый пользователь получает выделенный облачный компьютер с предустановленным агентом — один клик, и он уже работает. Никакой локальной установки, никаких конфликтов с окружением.

Принцип изоляции: ваши данные живут только в вашем инстансе, не смешиваясь с чужими. Вы сами настраиваете, к чему агент имеет доступ. Под капотом — Claude Opus 4.6, GPT-5.4 и NVIDIA Nemotron 3 Super на инфраструктуре Azure.

Управление — через мессенджеры: написали задачу в WhatsApp или Telegram, агент выполнил и вернул результат. Поддерживаются Teams и Slack.

2. Genspark Workflows

Автоматизация повторяющихся задач в ~20 приложениях: Google Workspace, Outlook, Slack, Teams, Notion, Salesforce, X. Есть готовые шаблоны, есть возможность собрать свой сценарий. Логика простая: подключил инструменты, описал рутину — Claw выполняет её без участия человека.

3. Genspark Teams

Встроенный мессенджер внутри платформы — прямые сообщения, групповые чаты, поиск участников на уровне организации. Бесплатно. Это прямой выпад в сторону Slack: если агент уже живёт в Genspark, зачем переключаться в другое приложение для общения с командой?

4. Meeting Bots

Выделенный бот автоматически приходит на запланированные встречи, записывает обсуждение, структурирует заметки и рассылает саммари всем участникам. Без ручного запуска — просто синхронизируете календарь и забываете про конспекты.

Speakly для iOS и Android

Голосовой ввод с AI-редактированием. Работает поверх любых приложений — диктуете, Speakly вставляет готовый текст куда нужно.

Chrome Extension

Боковая панель, которая понимает контекст открытой страницы. Можно ставить задачи агенту прямо во время работы в браузере.

Коротко про OpenClaw и почему сравнение уместно

Совпадение в названии не случайно — в день релиза SiliconAngle прямо написал, что Genspark Claw создавался как корпоративная альтернатива OpenClaw. Для тех, кто не следил: OpenClaw — open-source агент австрийского разработчика, набравший 247K звёзд на GitHub за два месяца. Работает локально, бесплатно, но требует технической грамотности для настройки. Исследователи нашли в нём 40К+ уязвимостей, после чего Китай запретил его в госструктурах.

Genspark берёт ту же идею — делегировать агенту реальную работу — и убирает порог входа. Не нужен сервер, не нужна командная строка, не нужно следить за CVE. Платишь деньги, получаешь изолированный облачный компьютер с агентом из коробки.

Честно о том, чего я не знаю

Я не тестировал Genspark Claw — продукт вышел 12 марта, публичного доступа с прозрачным ценником пока нет. Неизвестно, как агент ведёт себя на длинных многошаговых задачах, насколько реально работает изоляция данных и во сколько это обойдётся обычной команде из 5–10 человек.

Пресс-релиз говорит «делегируй — агент сделает». Это стандартная формулировка для любого агентного продукта последних двух лет. Верить или нет — станет понятно через месяц-два по реальным отзывам.

Итог

Рынок агентов сейчас делится не по функциям, а по аудитории. OpenClaw — если хотите контроль и готовы разбираться. Genspark Claw — если хотите просто поставить задачу и уйти. Оба подхода имеют смысл, просто для разных людей.

Если кто-то уже получил доступ и попробовал — интересно услышать в комментариях, насколько реальность совпала с обещаниями.

Теги:
-1
Комментарии0

День 2. 115 тыс параметров вместо 2 млн+ у YOLO

Продолжаю дневник разработки «Суперраспознавалки» для демо/пилота. Начало здесь.

Сегодня начали углубляться в сторону самой по себе классификации, а также немного выходить из темы универсальности решения, чтобы решать уже задачу detection, а не только общую сегментацию.

Интересный момент, найденный в экспериментах — благодаря TAPe получается использовать очень дешевые методы с тз ресурсов, при этом используя и методы ML. При этом все равно получаются очень хорошие результаты для этих методов.

Например, конкретно сейчас получается даже на более сложных примерах без проблем находить задний фон, используя при этом минимальные ресурсы и методы, которые на пикселях являлись релевантными 20 лет назад.

Разбиение происходит за 100+ кадров в секунду, без оптимизации, с обработкой каждого кадра отдельно (то есть есть также overhead выгрузки изображения на GPU).

Также пришло понимание, что нужно переходить к этапу дополнительных действий, чтобы отбирать интересные места. В целом по результату вышло, что количество ложных срабатываний в разы уменьшилось, но при этом количество правильных ответов тоже немного снизилось (на пару процентов, но заметно в любом случае, тем более у нас цель получить условные 100% на тестовых данных). Это происходит как раз таки из‑за того, что нет правильной последовательности действий (что, впрочем, нами ожидалось, просто не думали, что это так быстро произойдет).

Перешли к более адаптированной под TAPe логике. Пока очень топорным способом (так легче тренировать и проверять работу), но выходят очень хорошие результаты. По поводу данных немного скажу для контекста:

Разбиение следующее:

Classes: 4; labeled: 1256, train: 879, test: 377, miss images: 559

То есть, 4 класса, общее количество изображений объектов — 1256, из них в тренировку уходит 879, в тестирование — 377. Miss images — это изображения просто заднего фона, а также случайных объектов, не являющихся нужными объектами.

Для YOLO необходимо около 1500 изображений на один класс. Мы же успешно используем около 220 на класс + какие‑то изображения фона (которые есть только для травы и снега, например).

Результаты имеют точность определения того, где находится нужный объект (не её вид — это отдельный шаг) с точностью 98.94% (то есть правильно для 373 из 377 изображений). Ложные срабатывания ещё существуют, но их стремительно меньше.

Интересно, что модель «самостоятельно» находит правильно нужные объекты, даже если в тренировочных данных они не были обозначены (то есть тренировочные данные неправильные). Модели всё равно удаётся определить оба объекта, что показывает, что модель обучилась формам объектов успешно.

Чтобы добавить контекста — размер модели 115 тысяч параметров. Самая маленькая из современных YOLO же имеет 2+ млн параметров, и при этом не справляется с задачей.

Теги:
+2
Комментарии0

Представлен открытый проект TUI Studio (Visual Terminal UI Designer), среды для визуального проектирования интерфейсов пользователя, работающих в текстовом терминале. Среда позволяет в интерактивном режиме наглядно формировать интерфейс, перетаскивая готовые блоки мышью, редактируя свойства в визуальном режиме и предпросматривая результат на лету. Сформированный макет интерфейса может быть экспортирован для использования во фреймворках Ink, BubbleTea, Blessed, Textual, OpenTUI и Tview.

Решение написано на TypeScript с использованием React, Vite, Zustand, Tailwind CSS и Lucide React. Код распространяется под лицензией MIT. Из особенностей разработки отмечается, что почти весь код TUI Studio написан ИИ‑ассистентом Claude.

В TUI Studio предоставляется более 20 готовых компонентов для формирования интерфейса (кнопки, меню, таблицы, списки, индикатор прогресса, диалоги, всплывающие подсказки и тому подобное) и поддерживается 8 тем оформления, а также светлый и тёмный режим, градиентные заливки, ASCII‑цвета и акцентные цвета. Имеется возможность отката изменений. Доступен интерфейс для создания своих компонентов. Проекты сохраняются в формате JSON.

Теги:
0
Комментарии1

 Claude Code: 3 фичи, которые стоит знать

Opus 4.6 и контекст в 1 млн токенов

Теперь включён по умолчанию. Миллион токенов — это примерно 750 000 слов или несколько крупных кодовых баз целиком. На практике это означает, что агент дольше «помнит» контекст задачи без деградации качества на длинных сеансах.

Для большинства задач разница с предыдущими лимитами несущественна. Но если вы работаете с большими монорепозиториями или длинными аналитическими сессиями — почувствуете.

Три фичи, которые стоит знать

/btw — вопросы на ходу

Агент работает час, вы не прерываете его — просто пишете /btw что такое этот класс?. Он отвечает из копии контекста, основной поток не трогает. Работает через кеш — почти бесплатно.

Почему это важно

Раньше, если в середине часового сеанса агента нужно было что-то уточнить, вы открывали новый сеанс, пересоздавали весь контекст — и платили за это токены. Теперь Claude Code создаёт одноразовый снимок текущего состояния, отвечает на ваш вопрос и удаляет снимок. Основной агент ничего не знает и продолжает работу.

/loop — цикл до условия

Запускает команду повторно, пока не выполнится условие. Например: «запускай тесты и фикси ошибки, пока все не пройдут». Без вашего участия.

Agent Teams — параллельные агенты

Несколько агентов работают одновременно и общаются друг с другом. Один пишет код, другой ревьюит, третий пишет тесты. Реально полезно, когда задача не имеет чёткого финального состояния.

Практически: спросили «почему здесь используется этот паттерн», получили ответ, не потеряли прогресс.

Когда это реально нужно?

Агенты буквально пишут сообщения друг другу: делятся находками, оспаривают решения. Это не маркетинговая метафора — в логах видно переписку.

Хорошо работает на задачах, где нельзя заранее точно сформулировать условия выполнения. Например: «сделай этот модуль надёжным» — агент по архитектуре, агент по тестированию и агент по документации работают параллельно и синхронизируются.

Куда это всё движется

Claude Code последовательно поглощает функциональность внешних инструментов. Сначала взял на себя управление контекстом, потом — параллелизацию. Сейчас добавляет циклическое выполнение и внутренние коммуникации между агентами.

У меня ощущение, что через год-два это будет единственный инструмент, который нужен для большинства задач разработки. Или конкуренты успеют ответить — посмотрим. А вы что думаете?

Если материал был полезен, проголосуйте пожалуйста, чтобы дать мне возможность писать полноценные гайды и статьи :)

Теги:
+3
Комментарии0

Совершать опечатки в публикациях стало престижно — ошибки в сообщениях стали символом статуса и надёжности, пишет Business Insider. Причина — ИИ‑бум. Из‑за него идеальные тексты кажутся нейрослопом и неуважением к собеседнику. Тексты с ошибками, с маленькой буквы и странной пунктуацией — наоборот, говорят о том, что с вами общается живой человек, заинтересованный в диалоге. Фишку уже активно используют многие топ‑менеджеры — они специально пишут неидеально, потому что слишком вылизанный текст ассоциируется с использованием ИИ.

Теги:
+1
Комментарии3

На конференции SNUG Silicon Valley 2026 встретил давнего приятеля, китайского американца, который последние десять лет работал в компаниях, занимающихся чипами для аппаратного ускорения искуственного интеллекта. На позиции инженера по верификации: SystemVerilog тестбенчи, UVM итд. Его мнение про область:

  1. В области training никто не превзойдет NVidia.

  2. В области inference слишком много компаний. Скоро произойдет лопание пузыря, примерно как с доткомами в 2000–2001 годы, и большинство из них вымрет.

  3. Но парочка останется, как и лидеры типа Amazon и Google после дот‑ком пузыря. Они будут отличаться от NVidia тем что дешевле.

  4. Особенно несладко придет компаниям, которые метались между тем на что нужно ставить — CNN, LLM, трансформеры, датацентры, автомобили, edge computing.

  5. Его на работе нагибают на использование ИИ при писании кода — ведут учет потраченных токенов например. Он этого не любит и спросил меня, как к этому относятся у меня на работе.

Я ему сказал — у нас начальство относится рационально: «если вы находите в этом пользу — ок, если нет — не парьтесь». Тем более что на наших задачах ИИ плохо работает — у меня собственно была на эту статья и постер на конференции.

Товарищ сказал: «ну хорошо, если меня уволят за неиспользование ИИ, буду стучаться к вам».

Теги:
+26
Комментарии15

Сейчас делаем пилот сразу для нескольких заказчиков. Рабочее название — «Суперраспознавалка» :))

Основная задача: настроить TAPe-модель на датасет типа COCO под задачу detection. Вторая — дать клиентам возможность добавлять собственные классы к уже существующим. Ну и далее, при необходимости, полная адаптация модели под конкретного заказчика. Поскольку у нас есть Теория активного восприятия с ее методами, на выходе заказчик должен получить кратную эффективность и кратную экономию ресурсов.

Задача интересная, поэтому буду вести дневник разработки, а потом подготовлю подробную статью.

Некоторые проекты — NDA, когда буквально нельзя указывать точное название объектов, которые нужно детектировать. Поэтому не обессудьте. Ноу‑хау по‑прежнему не собираемся раскрывать. Только результаты и часть пути к этим результатам.

День 1. TAPe и YOLO

Закончили с базовой структурой для сегментации, то есть с тем, как за один «ход» получать необходимый набор патчей, чтобы дальше расчёты шли параллельно (и оттуда же быстро), что также немного подводит ближе к самой логике действий здесь. Сейчас за одно действие получается определить все точно‑неинтересные места, а также все возможно‑интересные места (то есть, где есть детали в целом).

Что интересно сейчас в самом подходе — это то, что благодаря TAPe получается избежать проблемы других сегментационных моделей — а именно:

  • Необходимость классификации буквально каждого пикселя (как поступают стандартные современные модели семантической сегментации);

Стандартные модели буквально классифицируют каждый пиксель (или каждый N‑ный пиксель, если сжимают разрешение) на отношение к тому или иному классу. 

  • Необходимость проверять каждый шаг в какой‑то ограниченной сетке размером N на N (так делает конкретно YOLO)

YOLO обходит это использованием сил CNN, классифицируя только конечное количество патчей (зависит от версии YOLO, в первой их было 6400, что всё равно много). Методы TAPe же нам позволяют этого не делать, потому что единицы информации в TAPe (которые мы назвали T‑bit) несут в себе гораздо больше информации, чем бит. В данном случае — несут в себе нужную структуру для нахождения похожести — а значит для нахождения сегментов, в которых нужно что‑то классифицировать в целом. И даже здесь благодаря TAPe у нас есть преимущество: мы можем проводить классификацию на условном нулевом уровне, не уходя в глубину.

Используя даже простую версию такого подхода, мы уже можем приходить к такой сегментации на простых примерах (разные цвета показывают разные сегменты). Лавочка — один сегмент, урна — другой, всё остальное — разные неровности, которые также можем буквально отфильтровать, если не хотим проводить их классификацию их. То есть — объект находится условно одномоментно.

Теги:
-2
Комментарии0

ИИ — помощник, или враг разработчика? Мысли на тему. Часть 2

Сейчас время нейросетей. Не надо излишне обольщаться на тему их возможностей — они владеют (по крайней мере пока), только той информацией, которая использовалась при обучении, плюс, имеют возможность «подглядывать» в поиск и различные внешние источники с помощью MCP-серверов. Всё.

Но даже это снова очень серьёзный рывок вперёд. Вместо необходимости искать и анализировать информацию из нескольких источников мы сразу получаем готовое решение. Да, ещё с погрешностями и необходимостью ручных правок и проверок, но это уже качественно другой уровень разработки.

Вместо ручного написания алгоритмов или их комбинирования из готовых частей на первое место выходит навык промптинга — умения сформулировать свой запрос в виде, достаточно полном и понятном для нейросети.

Меняется ли что-то для разработчиков? Безусловно. Снова. Нам снова надо менять свой подход к разработке. Так же, как мы меняли его 30 лет назад, 20, 10... И будем менять опять ещё лет через 10. Это естественный процесс.

Надо ли забывать синтаксис и особенности низкоуровневой разработки? Нет. Как минимум, ещё несколько лет необходимо будет выверять за LLM код так же, как мы выверяем его за новичками. Но, давайте будем честными, машинные коды и Ассемблер многие уже забыли, а то и не знали. А создавать программы им это не мешает. Так же как сейчас есть специалисты, активно использующие машинные коды и Ассемблер в работе.

Рынок не схлопнется. К нему добавится ещё один слой. Кто-то из разработчиков будет и дальше по старому писать код в областях, новых для ИИ, где у него нет наработанной «базы ответов». А кто-то переключится на написание промптов, в разы повысив скорость решения прикладных задач.

Теги:
+3
Комментарии8

ИИ — помощник или враг разработчика? Мысли на тему. Часть 1

Привет, это снова Саша Кузнецов, ведущий инженер-программист в Контуре. 🙌

Я из тех «ископаемых», которые начинали программировать ещё во времена, когда в качестве IDE выступал обычный текстовый редактор, а для хранения информации о синтаксисе команд использовались собственные записи в тетради. Я в то время учился в школе и на уроках учитель давала нам информацию о синтаксисе команд с распечаток. Если в тетради была ошибка — ты делал ошибку в коде и не мог понять, что идёт не так. Роль интернета играла городская библиотека (в местной книг про IT практически не было), «пинг» до которой был несколько часов только на дорогу, а ещё — скорость работы «поисковой системы» по бумажным книгам оставляла желать лучшего.

Потом я поступил в университет и «произошла магия» — там были IDE с подсветкой синтаксиса команд, подсказками, появляющимися по нажатию F1, и более-менее вменяемыми сообщениями об ошибках.

Это было круто! Просто зная название команды можно было получить описание её синтаксиса, а не хранить в голове информацию обо всех возможных комбинациях! Реальный прирост производительности сейчас по памяти сложно замерить, но скорость непосредственно набора команд выросла в разы. С решением задач в целом ситуация улучшилась не сильно — основным источником информации оставались бумажные книги. Разве что «пинг» существенно сократился — читальный зал находился в том же корпусе, в котором шли занятия. По сути, в момент этого скачка необходимость знания точного синтаксиса команд заменилась на необходимость знать только название команды.

Потом магия произошла снова — на кафедре появился интернет и что-то похожее на поиск. Это был ещё далеко не современный интернет с мощными поисковыми системами, но и совсем древние его версии я не застал. Но, главное, уже можно было найти информацию за рамками того, что было включено в поиск разработчиками IDE, или лежало в читальном зале. Речь шла уже не о синтаксисе команд, а о способах решения задач. Но не всегда. Это было время, когда в интернете ещё надо было суметь найти готовый код для редких видов сортировки массива, а за написание алгоритма БПФ (Быстрого Преобразования Фурье) заказчики на фрилансерских форумах были готовы выложить $500. И, тем не менее, это снова был качественный скачок — можно было быстро найти информацию по конкретной проблеме, не перекапывая кучу книг, в которых, возможно, могло быть «что-то близкое по теме». Скорость решения задач снова выросла, и снова значительно. Всё больше и больше задач стало переходить в категорию шаблонных. На этом этапе на первое место начал выходить навык «гугления». Основы синтаксиса остались необходимой базой, но умение правильно забить вопрос в поисковую строку стал определять очень и очень многое.

Новый скачок произошёл с развитием разработческих форумов по типу Stack Overflow. С момента их основания огромное число пользователей задавало вопросы и получало на них ответы. Можно было не просто что-то найти, но дать описание проблемы и получить решение, часто с примерами рабочего кода. А ещё к этому моменту существенно выросли как возможности поисковых систем, так и объём проиндексированной информации в них. Плюс, достаточно много книг перевели в цифровой формат. В результате стало возможным указывать не конкретное название нужного алгоритма или ключевые слова, а давать описание проблемы и получать подборку страниц с нужными ответами. В том числе на Stack Overflow и другие похожие форумы.

Теперь можно было нормально искать решение более-менее широко известных проблем по их примерному описанию и сразу получать примеры рабочего кода. Существенный рывок, значительно сокративший время на простые, рутинные задачи, и, одновременно, подаривший куче студентов возможность гуглить практически готовые лабораторные работы.

Фактически, именно в этот момент программирование стало общедоступным. А на первое место вышел навык комбинирования — умения собрать решение из похожих кусков кода, найденных в интернете.

Теги:
+2
Комментарии0

Основатель маркетинговой компании DigitalMarketer Райан Дайсс считает, что главный риск ИИ не в том, что он заменит людей, а в том, что люди перестанут думать сами.

«Раньше людям не нужно было отдельно тренироваться — работа поддерживала нас в форме. Индустриализация это изменила. Теперь мы ходим в зал, потому что работа больше не делает нас физически сильнее», — пояснил Дайсс.

По его мнению, с мышлением может произойти то же самое: если переложить все задачи на ИИ, умственная «форма» начнёт ухудшаться. «Технологии, которые сделали нас толще, могут сделать нас и глупее», — добавил Дайсс.

В качестве решения Дайсс предлагает правило 10-80-10. Первые 10% задачи человек должен делать сам — сформулировать идею и направление. Затем 80% работы можно отдать ИИ. Финальные 10% снова за человеком — оценка результата, доработка и то, что он называет «de-slopification», то есть очистка выводов ИИ от «шлака», низкокачественного контента.

Теги:
+6
Комментарии2

AlphaXiv выкатили свой TikTok для научных статей и свежих исследований. Внутри есть всё для просмотра: самые хайповые работы в одном потоке, ИИ-выжимки и чат-ассистент, если лень вникать в суть, а также переход к полному тексту в один клик.

Теги:
0
Комментарии0

В Photoshop анонсировали функцию вращения 2D‑объектов — пока она доступна только в бета‑версии редактора. Инструмент Harmonize добавит свет и тени, чтобы объект выглядел естественно и вписался в окружение.

Теги:
+1
Комментарии1

Что будет на конференции GoCloud 2026? Рассказываем про трек «Прикладной ИИ»

Ежегодная конференция про ИИ и облака снова открывает двери для всех заинтересованных. После приветственного слова лидеры из различных отраслей поделятся тем, где ИИ уже реально успешно работает на бизнес, а где так и остается игрушкой для энтузиастов. А еще эксперты расскажут, как перешли от экспериментов к рабочим сервисам.

В треке «Прикладной ИИ» вы узнаете:

  • Что нового в Evolution AI Factory. Артемий Мазаев расскажет о том, какие обновления, no-code агенты и планы на развитие есть у цифровой среды сервисов для ИИ-разработки.

  • Как выстроить контролируемое использование GenAI. Александр Константинов и Анна Тищенко из HiveTrace покажут, какие угрозы уже возникают при использовании моделей и какие решения снижают вероятность инцидентов.

  • Мультиагентная архитектура речевой аналитики кол-центра. Дмитрий Киришев из компании «Строительный двор» поделится тонкостями построения платформы для глубокой аналитики звонков.

  • ComfyUI в проде: как освоить инструмент и полюбить его. Максим Блинов объяснит, как превратить эту визуальную среду для генерации контента из хобби в надежный инструмент для бизнеса.

  • Проектирование ИИ-системы для поддержки: фундамент, стек, роли и первые сценарии. Павел Худатов расскажет, как усилить службу поддержки с помощью ИИ так, чтобы рабочий процесс не превратился в блуждание по разрозненным сервисам.

  • RAG без боли: управляемый сервис, новые фичи и живой воркшоп. Петр Королев покажет сервис Evolution Managed RAG для корпоративных знаний и устроит живой воркшоп прямо на сцене.

  • Делаем бизнес-процессы как в n8n — безопасно и масштабируемо. Владислав Янковский разберет ограничения n8n при нагрузке, расскажет про скейлинг, безопасность, а в конце покажет демо реальной миграции.

  • Гибридный подход к работе с ИИ в контуре заказчика. Дмитрий Жечков подскажет, как балансировать безопасность данных и доступ к мощным моделям, когда ресурсов мало.

Завершит день круглый стол «Под капотом ИИ: технические барьеры и драйверы внедрения», где участники под модерацией Дмитрия Юдина смогут ознакомиться с результатами исследования Cloud.ru и честно обсудить то, что обычно остается за кадром.

Об остальных треках читайте в следующих постах и не забудьте зарегистрироваться!

Полная программа и регистрация

Теги:
0
Комментарии0

Симптом, а не болезнь

Промпт-инъекция — это атака, когда вредоносную инструкцию прячут в письме, комментарии или документе, а LLM/агент воспринимает её как команду. Но проблема глубже. Если агенту дали инструменты и доступы без жёстких ограничений, он может выполнить внешнюю «инструкцию» и привести к утечке или опасным действиям.

Что вы представляете, когда кто-то говорит об AI-driven компании? Может быть, как чат-боты улучшают опыт клиентов? Или как сотрудники разворачивают любые модели для своих нужд? А может, как ИИ-агенты разбирают кучу электронных писем и назначают встречи в календаре, копилоты пишут код за разработчиков и исправляют баги? Что в этой красивой истории может пойти не так и почему безопасность систем искусственного интеллекта не ограничивается защитой от джейлбрейков и промпт-инъекций — разберёмся в статье «Почему промпт-инъекции — это симптом, а не болезнь безопасности ИИ».

Теги:
+1
Комментарии0

СЕО Stripe Патрик Коллисон в подкасте TBPN рассказал, что программное обеспечение вообще‑то не должно производиться «впрок» и продаваться бесконечно. По его мнению, его стоит создавать по запросу — прямо в момент использования.

«Софт должен быть как пицца: его нужно готовить здесь и сейчас, в момент заказа», — объяснил Коллисон. До сих пор, по его словам, экономика ПО строилась по модели фиксированных затрат на разработку с последующей почти бесконечной монетизацией.

Но когда появляются издержки на работу ИИ-моделей и кастомную генерацию под конкретный запрос, всё меняется. Коллисон назвал это «не-валрасовским» режимом софта — то есть рынком, который уже не живёт по старым экономическим правилам. Эта аналогия отражает общий вопрос в индустрии: заменит ли ИИ традиционное ПО или будет всего лишь его дополнять.

Теги:
+1
Комментарии2
1
23 ...