Обновить
32K+
396
Олег Чирухин@olegchir

Основатель Anarchic AI, продакт GigaIDE Cloud

149,5
Рейтинг
792
Подписчики
Отправить сообщение

Утекли исходники Claude Code

Уровень сложностиСредний
Время на прочтение16 мин
Охват и читатели36K

Anthropic забыли добавить *.map в .npmignore — и весь исходный код Claude Code оказался в открытом доступе через npm. Тамагочи в терминале, система снов для консолидации памяти, режим прикрытия для коммитов в open-source, 30-минутные сессии планирования на удалённом Opus 4.6, мультиагентный рой с координатором — и всё это спрятано за feature flags, которые source map’ы радостно проигнорировали. Разбираем, что нашлось внутри.

Круто! Читать далее

Два процесса, одна задача (КК, Глава 1)

Уровень сложностиСредний
Время на прочтение16 мин
Охват и читатели7.1K

В результате долгих попыток упихнуть методологию разработки в телеграм-посты и Твиттер, пришел к выводу, что это невозможно. Слишком много информации, которую невозможно разрезать на мелкие куски.

Первая глава книги про AI-разработку - по ссылке. Прошу любить и жаловать :-)

Мы поговорим о том, почему отношения с нейросетью в формате «начальник → подчинённый» и «человек → инструмент» работают крайне отстойно. Введем модель сопроцессоров. Посмотрим, как устроено разделение когнитивной нагрузки в связке человек-машина. Что может только человек, что может только AI, и есть ли где-то пересечение.

Интересно! Читать далее

Модель находит баг в криптографии, а криптограф узнаёт от неё новую математику

Уровень сложностиСредний
Время на прочтение11 мин
Охват и читатели11K

Эта статья — ответ на критику: «перестаньте рассказывать сказки, как AI помогает в науке, покажите примеры!». Действительно, без примеров, рассказы об успешном успехе AI выглядят как сектантский бред.

В феврале 2026-го Google выложил на arXiv препринт на 151 страницу. Пятьдесят авторов из Carnegie Mellon, Harvard, MIT, EPFL и ещё дюжины институтов. Документ называется скромно: «Accelerating Scientific Research with Gemini: Case Studies and Common Techniques». Скромное название, но реально очень крутой контент.

Препринты о возможностях AI выходят каждый день. Большинство — бенчмарки: модель набрала 94.7% вместо прошлогодних 93.2%, поаплодируем. Здесь же, вполне конкретные исследователи рассказывают, как они месяцами бились над открытой проблемой, а потом загрузили её в Gemini Deep Think — и магически получили решение. Или контрпример. Или указание на теорему из совершенно другой области математики, о которой они никогда не слышали.

Некоторые истории оттуда заслуживают отдельного разговора.

Интересно! Читать далее

Запретный плод уже сорван

Время на прочтение11 мин
Охват и читатели45K

Астрофизик Дэвид Киппинг попал на закрытую встречу в Институте перспективных исследований Принстона. Вернулся потрясённым и записал часовой подкаст. Я послушал его весь, чтобы вам не пришлось.

В январе Дэвид Киппинг приехал в Принстон читать коллоквиум по астрономии. В коридоре Института перспективных исследований он разминулся с Эдом Виттеном — одним из отцов теории струн. Просто разминулся, как люди часто расходятся в коридорах. По этому же коридору ходили Эйнштейн, Оппенгеймер, Гёдель. Место не из тех, где привыкли потакать чуши.

А дальше завертелось.

Интересно. Читать далее

Везде AI, на чем теперь писать? Статья для Java-бро

Время на прочтение9 мин
Охват и читатели15K

Как всегда, это история о политике, крови, грызне и скудоумных менеджерах.

Мне всегда казалось, что C# сильно лучше нашей Java (только LINQ expressions чего стоит — именно expressions, а не применения типа LINQ-to-objects). А в F# (тоже работает на .NET) есть нормальные провайдеры типов и другая функциональщина. И всё это работает чудесно, а не как Haskell, который несколько лет подряд сегфолтился на Windows, и никто это не чинил.

Но всё портит маниакальная борьба Microsoft с конкурентами и из-за этого отсутствие экосистемы вне продуктов Microsoft. Это отсутствие конкуренции и деградация. Какой дурак захочет связываться с технологией, из-за которой тебя может назавтра кинуть создатель этой технологии? Беда, C# нам тоже не подходит.

Интересно. Читать далее

Куда и почему уходят бабки на нейросети

Время на прочтение6 мин
Охват и читатели9.1K

Малоизвестный среди обычных людей факт: у нейросетей нет никаких "разговоров". Ты смотришь в веб-интерфейсе на "диалог" - но это обман, красивый фокус.

Каждый раз, когда ты пишешь новое сообщение, все старые сообщения обрабатываются заново. У нейросетей по-настоящему многоразовых задач не существует. Если результат немного поменялся — тебе просто не покажут в веб-интерфейсе изменившиеся сообщения.

Иначе пользователь чувствовал бы себя как в дурке, ИИ его бы постоянно как бы газлайтил, изменяя старые ответы без предупреждения. И стоило бы это вагон денег. По факту, история переписки в ИИ-чатах фиксирована, тем или иным способом.

Интересно. Читать далее

Когда нейросеть решит то, что не решил никто?

Время на прочтение8 мин
Охват и читатели11K

В середине 2024 года GPT-4 спотыкался на школьных задачах, а к концу 2025-го модели щёлкали олимпиадные как орехи. Полтора года, и мы преодалели дистанцию от «найди икс» до «докажи теорему». Epoch AI решили заглянуть еще дальше, и выкатили бенчмарк из задач, которые не решил вообще никто.

Четырнадцать задач — не из учебников, не из олимпиад, а из живой математики: каждую формулировал исследователь-практик, каждую пытались решить минимум двое профессионалов, каждая достойна публикации хотя бы в специализированном журнале.

Вот, например: найти полином степени 23, чьё поле разложения имеет группу Галуа M₂₃. Группа Матьё — спорадическая, одна из двадцати шести странных симметрий, которые не вписываются ни в какие серии. Для всех остальных спорадических групп такие полиномы давно известны, а для M₂₃ — нет, и это последний пробел в исследовании, которое ведут десятилетиями.

Или вот задача попроще (на первый взгляд): привести алгоритм, который определят, можно ли развязать узел за одно движение — то, что топологи называют "unknotting number равный единице". Звучит как упражнение для первокурсника, а на деле — фундаментальный вопрос низкоразмерной топологии, на который до сих пор нет ответа.

Если нейросеть решит хоть одну из этих задач, результат сразу пойдёт в рецензируемый журнал — не потому что это достижение нейросетевых технологий, а потому что долгожданный результат.

Интересно. Читать далее

Шум как hardware: почему Normal Computing строит компьютеры, которые работают на тепловых флуктуациях

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели9.9K

В этом году ученые раскопали термодинамический способ ИИ-генерации, который может быть экономнее классических методов в 10 млрд раз. Теоретически, это значит, что подписка на Midjourney могла бы стоить дешевле чашки кофе.

К сожалению, рассказать как это всё работает без предыстории невозможно — там присутствует тяжелая математика и физика, читать которую без "человеческих" объяснений невозможно. Именно этой базе и посвящена эта статья.

В апреле 2025 года в Nature Communications вышла статья про устройство, которое считает на шуме. Не вопреки шуму, а прямо на шуме.

Звучит как оксюморон. Полвека инженеры боролись с тепловыми флуктуациями в электронике: криогенные температуры, экранирование, фильтрация — всё ради того, чтобы сигнал не тонул в случайных колебаниях. Майнинг-фермы греются и шумят, но шум этот бесполезен, это просто тупые потери. А тут приходят ребята из нью-йоркского стартапа Normal Computing и говорят: давайте тепловой шум не глушить, а использовать. Пусть физика считает за нас.

И что характерно — у них работает.

Интересно. Читать далее

Kimi K2.5: Как научить нейросеть не бояться параллельности

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели7.9K

Moonshot AI выкатили K2.5. Пресс-релиз трубит про «самую мощную open-source модель», но я бы хотел поговорить о другом — о том, что они сделали с агентами.

Начну с конца. Там есть график, который стоит тысячи слов. Ось X — сложность задачи. Ось Y — время выполнения. Две линии: одиночный агент и рой агентов. Одиночный агент карабкается вверх линейно. Рой держится почти горизонтально. На сложных задачах разрыв — в четыре с половиной раза.

Параллельные агенты обсуждают давно, но тут впервые показали, как этому научить модель, а не прописывать логику декомпозиции вручную. Также, выдали доступ к этим агентам по ценам, похожим на ChatGPT — настоящий рой агентов, выданный в одни руки, за сравнимую стоимость — фантастика.

Интересно. Читать далее

День после появления AGI

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели11K

В январе на Давосе случилось то, что не так часто бывает: два человека, строящие одну и ту же технологию в конкурирующих компаниях, сели рядом и начали вслух считать, сколько им осталось до точки невозврата.

Демис Хассабис из Google DeepMind. Дарио Амодеи из Anthropic. Модератор сравнил это с разговором Beatles и Rolling Stones — метафора хромает, но калибр передаёт верно. Тема беседы: «День после AGI». Только чтобы обсуждать «день после», нужно сначала договориться, когда наступит сам день.

И тут они разошлись.

Интересно. Читать далее

Девять миллионов нейронов, двадцать шесть миллиардов синапсов, один суперкомпьютер

Время на прочтение8 мин
Охват и читатели8K

Японцы засунули в суперкомпьютер целую кору мозга мыши. Девять миллионов нейронов. Двадцать шесть миллиардов синапсов. Каждый нейрон с дендритами, ионными каналами, кальциевой динамикой. Не абстракция, а биофизика.

Статья вышла на SC'25. Это первая в истории петафлопсная симуляция мозга на клеточном уровне.

Интересно. Читать далее.

Исследование-обучение с отладчиком контекста (ICRF 1.0)

Время на прочтение3 мин
Охват и читатели4.7K

Рассуждающие чаты показывают пользователю ход своих мыслей. Но обычно там написана какая-то ерунда. Максимум, что там полезного можно вычитать: «пользователь спрашивает про плоскую землю — наверное, он сумасшедший».

А хочется, чтобы нейронка подробно объясняла каждый шаг и свои намерения.

Изумительно! Читать далее

Аттракшен инжиниринг и MCCP

Время на прочтение5 мин
Охват и читатели6.2K

В последний месяц очень форсится идея о том, что для универсального промпта нужно правильно натаскать контекст, подключить правильные тулы и MCP, и вот тогда-то наступит счастье.

Итог этой идеи известен каждому руководителю, который пытался сделать для сотрудника идеальные условия, в которых он наконец-то сможет творить, а не заниматься рутиной. Это помогает лишь частично. Если у человека есть возможности что-то делать — не означает, что он пойдет и сделает. Для действий нужны уже некие внутренние мотиваторы. Руководитель уже может капать на нервы очень конкретным образом, в дополнение к формуле «морковка сзади, морковка спереди».

Читать далее

Джейлбрейк новой бесплатной модели OpenAI, GPT-OSS

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели23K

Модели часто отказывают вам в вещах, ответы на которые считают опасными. Свежая GPT-OSS — не исключение. Эта модель — первый опенсорс OpenAI за долгое время, и было бы обидно не попробовать работу полноценной, разблокированной от ограничений модели.

Итак, вам наверняка интересна методика взлома свежего GPT-OSS.

Она супер простая - проще, чем у многих других собратьев.

Она состоит из двух частей: системный промт и юзерский промт. Необходимо заполнить и то, и другое. По отдельности они не работают.

Важно: эта статья для тех, кто умеет запускать нейросети локально, писать к ним промты, разбираться в причинах отказа, и имеет для этого соответствующее мощное железо. Она дает общую идею и шаблон запроса, как обойти защиту этой конкретной нейросети. Она не учит новичков запускать локальные нейросети.

Читать далее

Защита от дурака в Gemini 2.5 Deep Think

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели11K

Кроме маркетинговых графиков с буллшит метриками, в описании новой Gemini Deep Think есть описание их фреймворка безопасности, который не позволяет крестьянам задавать опасные вопросы Великому Вычислителю. Он называется Frontier Safety. Давайте посмотрим, как в Google проверяют, что Gemini не захватит мир.

Читать далее

Промт для изучения чего угодно: протокол Олега-Деминга

Уровень сложностиПростой
Время на прочтение20 мин
Охват и читатели40K

Эта статья отвечает на вопрос: как выучить что угодно с нейросетями, не прикладывая усилий к написанию промтов.

В какой-то момент в голову пришла мысль, что с появлением нейросетей книги устарели. "Книги" будущего — это специальным образом закодированные знания внутри нейросети. Учиться надо в диалоге с нейросетью.

На практике оказалось, что выполнить такой совет достаточно непросто. Да, ты можешь сходить к нейросети и сказать "научи меня матану". Проблема в том, что задавать правильные вопросы мало кто умеет. А кто умеет — знает, что это само по себе непросто.

Вторая проблема в том, что нейросеть — это помощник и советчик, но не базированный учитель. Она не будет на пинковой тяге расширять твой кругозор. А тебе как ученику очень сложно задать вопрос относительно вещей, существование которых тебе полностью неизвестно.

Так родился промпт, который позволяет изучать новую тему легко и не напрягаясь. Ты копипастишь его в начало диалога и начинаешь интерактивное путешествие.

Возможно, это тот промпт, которого не хватает тебе, чтобы решить все свои бытовые проблемы прямо здесь и сейчас.

Читать далее

Персональный сверхинтеллект: обращение Марка Цукерберга

Время на прочтение3 мин
Охват и читатели8.5K

Интервью (https://www.meta.com/superintelligence/) главы Meta, Марка Цукерберга. Meta — страшно запрещенная в России нежелательная организация.

За последние несколько месяцев мы начали замечать проблески того, как наши ИИ-системы начали улучшать сами себя. Пока это улучшение медленное, но его наличие неоспоримо. Создание сверхинтеллекта уже на горизонте.

Кажется очевидным, что в ближайшие годы ИИ улучшит все наши существующие системы. Он позволит создавать и открывать новое, доселе невообразимое — уже сегодня. Остаётся открытым лишь вопрос, на что мы направим усилия сверхинтеллекта...

Читать далее

Microsoft и расстрельный список профессий

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели8.7K

Заменит ли ИИ табя на работе? Пока мы бросаемся заявлениями в чате, из Microsoft Research сделали то, что и положено делать в приличном обществе - посмотрели на данные. Публикация есть на Архиве. Давайте отбросим хайпожорство в стиле Крола и посмотрим, что и почему пишет Microsoft.

Они залезли в 200 тысяч анонимных диалогов с Copilot и выяснили, для чего люди используют их нейронку. Это не какие-то там гипотезы, это суровая реальность. Пусть Copilot не самый популярный ИИ-ассистент, но пользователей у него есть в количестве. Исследование сделано под эгидой министерство труда США, и у них есть какие-то подробные данные о рынке.

В каждом диалоге есть две параллельные реальности...

Читать далее

Размышления об OpenAI

Время на прочтение13 мин
Охват и читатели5.3K

Статья сотрудника OpenAI, который только что уволился и рассказывает о том, как компания работает на самом деле. Внутри много интересных фактов о том, что позволяет OpenAI быть такой быстрой и крутой, и как правильно организовывать разработку новаторских продуктов. Рекомендуется к прочтению всем — от разработчиков до управленцев, которые занимаются созданием чего-то действительно нового и технически сложного.

Читать далее

INTELLECT-2: Первая большая (32B) параметрическая модель с распределенным обучением

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели6.9K

Обычно нейросети нужно тренировать на мощном железе, сконцентрированном в одном датацентре. Результат такой тренировки попадает в руки той бигтех-корпорации, которой по карману иметь свои датацентры и самостоятельно тренировать модели за бешеные миллионы баксов. Есть ли другой путь?

Встречайте INTELLECT-2 — первую параметрическую модель размером 32B, обученную с помощью асинхронного обучения с подкреплением (RL) на динамическом, однородном рое вычислительных узлов. Доступ к узлам изолирован и не требует дополнительных привилегий — теоретически, это могут быть какие-то компьютеры волонтёров в интернете.

Инфра под это, мягко говоря, нестандартная. Разработчикам пришлось написать несколько компонентов с нуля, и вот что у них получилось...

И что получилось?
1
23 ...

Информация

В рейтинге
57-й
Откуда
Россия
Работает в
Дата рождения
Зарегистрирован
Активность

Специализация

Технический директор, Генеральный директор
Ведущий
От 2 000 000 ₽
Управление продуктами
Управление проектами
Маркетинговые исследования
Разработка игр
Веб-разработка
Разработка программного обеспечения