Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 085,7
Рейтинг
Сначала показывать
Порог рейтинга
Уровень сложности

ТОП-5 бесплатных нейросетей для анализа документов в 2026 году

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.3K

Знакомая ситуация: вам скидывают PDF на полсотни страниц, а нужна всего одна цифра. Вы открываете файл, начинаете листать - и через полчаса ловите себя на мысли, что уже забыли, что именно искали. А потом выясняется, что документ - скан. Текст не выделяется, Ctrl+F бесполезен, дедлайн горит. Знакомо?

Ещё пару лет назад выход был один: делать скриншоты кусков, тащить их в онлайн-распознавалки, собирать текст по частям и надеяться, что ничего не потерялось. Сейчас за нас это умеют делать нейросети - причём бесплатно. Они читают сканы, понимают таблицы и вытаскивают нужное из любого хаоса форматов.

В этой статье мы взяли пять таких инструментов и устроили им один и тот же тест: дали инструкцию к пылесосу и попросили объяснить, как почистить фильтр. Посмотрим, кто справится быстрее и точнее.

Поехали!

Читать далее

NVIDIA захватывает AI, Cursor на китайской модели, SambaNova бьет GPU: ML‑дайджест

Время на прочтение9 мин
Охват и читатели9.6K

Мартовские анонсы показывают, куда движется AI‑инфраструктура: NVIDIA выпускает новые чипы, хранилища и оркестрацию под agentic AI, стартап с $2 млрд дохода использует китайскую базу под видом «frontier», а SambaNova обещает GPU‑убийцу. Разбираемся, что ждет мир нейросетей в ближайшие годы. 

Извлечь инсайты

Директории в чате, очередь сообщений и авто-retry: Veai 5.7

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели5.4K

Релиз Veai 5.7 (ИИ-агент к JetBrains IDEs для написания кода, тестирования и отладки с доступом к топовым LLM и всем внутренним инструментам IDE) собрал в себе много исправлений неочевидного UX, с которым вы сталкивались ежедневного. Меньше ручных переключений, меньше ожидания между шагами, меньше повторов при сбоях.

Читать далее

Как перестать играть в угадайку с промптами и научить нейросеть проектировать задачи за вас

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели5.6K

Привет, Хабр! На связи Артём Колесников, продуктовый маркетолог Garage Eight. Недавно у нас в компании я проводил воркшоп, где учил ребят делегировать построение задач нейросети. Они формулировали запросы так, чтобы ИИ-модель понимала контекст и на его основе сама выбирала подходящие промпты.

Такой подход называется рекурсивным метапромптингом, и он может сэкономить вам кучу времени. Хочу рассказать, что это такое и с чем его едят.

Заваривайте чай — и погнали!

Охота на AI-инфраструктуру, часть 2: что делают с чужим Ollama — от трейдинг-ботов до контент-ферм

Время на прочтение7 мин
Охват и читатели4.3K

В первой части я рассказал, как ханипот поймал сканер MCP-серверов — новый вектор разведки, нацеленный на AI-инфраструктуру. Сегодня — про другую сторону: что происходит, когда атакующий находит открытый Ollama.

Статья документирует реальные сессии злоупотребления открытыми LLM-инстансами: кто подключается, какие промпты шлёт, какие модели запрашивает. Данные собраны с трёх ханипотов (DE, US, RU) за март 2026.

Читать далее

Большие языковые модели играют в Бесконечное Лето

Время на прочтение11 мин
Охват и читатели11K

ИИ-агенты на базе больших языковых моделей могут управлять вашим календарем и почтой, заниматься инвестициями, вносить вклад в OpenSource-проекты и даже писать в свой блог о дискриминации ИИ-агентов. Но может ли ИИ-агент сыграть в визуальную новеллу?

Я готовил инструкцию для локального развертывания DeepSeek, и меня осенило. Визуальная новелла — это текст. Очень много текста. Большие языковые модели созданы для работы с текстом.

Я развернул несколько моделей, познакомился с интерфейсом Ollama, пропатчил игру на движке Ren’Py и автоматизировал эксперимент. Под катом — технические подробности, а сюжетные повороты спрятаны под спойлер.

Читать далее

Одинаковая модель — разный опыт: где ломается сравнение нейросетей

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели4K

Привет, Хабр. Я Гоша Соловьёв, ведущий инженер-программист в Контуре.

Иногда в одном обсуждении встречаются люди с разным уровнем погружения в нейросети. Они начинают сравнивать опыт, и тут всплывает проблема: фраза вроде «Я использую GPT для своих задач, и он лучше справляется, чем Qwen» буквально ни о чём не говорит, пока мы не уточним контекст. Более того — она легко вводит собеседника в заблуждение.

В этой статье я объясню, почему два человека, «использующие OpenAI GPT», могут получать кардинально разный результат, и как обсуждать ИИ-агентов так, чтобы разговор был предметным и конструктивным.

Читать далее

Моя волна — теперь и в офлайне. Рассказываем, как уместили рекомендательную систему в сотню килобайт

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели17K

Несколько лет назад мы представили Мою волну — систему персональных рекомендаций в Яндекс Музыке, которая подстраивается под предпочтения пользователей. В её основе — рекомендательные нейросети-трансформеры, размер которых может достигать сотен миллиардов параметров, и поэтому без мощных дата-центров их работа просто невозможна.

Сегодня мы впервые представляем нашу новую рекомендательную технологию TinyML, которая работает локально, на обычном смартфоне. Теперь при потере доступа в интернет Моя волна не просто бесшовно продолжит воспроизведение музыки, но и будет подстраиваться под действия пользователя и формировать рекомендации, исходя из его предпочтений в текущий момент.

Как это работает и что нам пришлось для этого создать — расскажем под катом.

Читать далее

Как Google сделал то, что не удавалось никому за всю историю смартфонов

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели8.6K

Пятнадцать лет назад. Вдумайтесь.

Пятнадцать лет Apple владела самым массовым голосовым ассистентом в истории человечества — больше миллиарда устройств, в каждом кармане, на каждом запястье — и эта штука до сих пор спотыкается, когда просишь её одновременно поставить таймер и отправить сообщение. А за это время ChatGPT взлетел от нуля до двухсот миллионов пользователей за какие-то два года. Claude стал настольным инструментом для любого, кто хоть раз открывал терминал. А гугловский Gemini тихой сапой превратился в самое мощное семейство моделей, о котором за пределами ИИ-тусовки толком никто и не слышал.

Что-то пошло не так. Капитально не так. И в этом месяце обе компании — и Apple, и Google — фактически в этом расписались, сделав ходы, которые переворачивают всё представление о том, как ИИ работает на вашем телефоне.

Читать далее

MS GraphRAG, Ollama и немного киберпанка

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели4.7K

Здравствуйте. Несколько лет глубоко погружён в тему корпоративных RAG-систем. В последнее время, как от коллег, так и от заказчика часто слышу, что векторный поиск это слабое место и вчерашний день, и что нас спасут только графовые системы. Нашел несколько постов и видео на эту тему. Захотелось попробовать. В статье делюсь своими впечатлениями, рефлексирую и рассказываю как воспроизвести эксперименты.

Почему Ollama? Выделение вычислительных ресурсов на RAG в проекте - отдельная больная тема. Мне нужно было понять нижнюю планку. Если коротко, кое-как работает даже на 4b моделях.

Причём здесь киберпанк? Очень нравится этот жанр, а ещё я люблю использовать для проверки RAG/LLM штук знакомые тексты. Для экспериментов с Microsoft GraphRAG я выбрал рассказ "Johnny Mnemonic" Уильяма Гибсона, для начала на английском.

Читать далее

«ИИ масштабнее, чем Covid»? Почему 85 миллионов человек ошибаются насчёт ИИ и рабочих мест

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели6.9K

«Происходит что-то масштабное». «Большинство людей не узнает об этом, пока не станет слишком поздно».

Более 85 миллионов человек увидели этот пост. Поделились. Поддержали.

И все ушли с совершенно неправильными выводами.

Не потому что данные неверны — данных не было изначально. А потому что Мэтт Шумер очень хорошо рассказывает страшные истории. Так, что читатель впадает в гипноз и принимает каждый аргумент за чистую монету.

Он пишет «масштабнее, чем Covid» — и не приводит ни одной цифры по занятости. Он говорит «поделитесь, пока не поздно» — транслируя собственную тревогу по поводу собственной работы в ИИ-компании.

Потом, в продолжении, он сказал CNBC, что «не хотел никого пугать» и что «если бы знал, насколько это станет вирусным, переписал бы некоторые части».

Конечно.

Если вы прочитали его пост так, как прочитало большинство, и решили действовать на его основе — вы принимаете неправильное решение. Вы либо сократите людей, от которых всё ещё зависите, либо побежите без плана, либо подмените реальную стратегию блестящими инструментами.

Я покажу вам одну простую кривую спроса, которая опровергает каждое заявление из серии «ИИ всех заменит».

К концу этого текста вы сможете избежать трёх ошибок, которые прямо сейчас совершают 80 миллионов человек — и с которыми данные активно спорят.

Читать далее

Топ нейросетей для работы с таблицами: Zoho, BotHub, GPTExcel и другие

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели6.7K

Думаю, каждый, кто хоть раз пытался подготовить отчёт к утру понедельника, сталкивался с этим чувством. Когда в таблице 500 строк, в каждой какой-то текст, а начальник просит просто выделить главное. Просто, да.

Раньше выход был один: сиди и обрабатывай каждую строку руками. Читаешь, выделяешь ключевое, формулируешь вывод. Если строк 20, то ещё терпимо. А если 500? Тут уже становится не до смеха.

Сейчас другая история. Нейросети научились работать там, где мы проводим больше всего времени, прямо в таблицах. Больше не нужно переключаться между десятком вкладок, копировать текст туда-сюда или гуглить формулы. Всё происходит внутри ячейки.

Я протестировала несколько популярных инструментов, которые встраивают AI в Google Sheets и Excel. От более крупных сервисов, таких как Zoho, до узких специалистов вроде GPTExcel.

Приятного прочтения!

Читать далее

RAG вместо GPT: как мы сделали внутреннего ассистента для корпоративных данных

Уровень сложностиСредний
Время на прочтение13 мин
Охват и читатели11K

В больших компаниях поиск почти всегда «работает». Но это не значит, что сотрудники быстро находят нужное: нередко они тратят часы на попытку вспомнить формулировку, место и контекст.

Мы построили внутренний RAG-ассистент в закрытом контуре: изоляция данных, контроль доступа, бенчмарки качества и долгая  работа с вендором. В статье — архитектура, переговоры  с вендором, ошибки, компромиссы и выводы для тех, кто думает о корпоративном ИИ всерьёз.

Конечно, до внедрения RAG компания нормально работала — это не история про «без ИИ ничего не функционирует». Это история про оптимизацию: сократить время на рутинный поиск и навигацию в массивах информации.

Читать далее

Ближайшие события

Готовим ИИ-агента к продакшену

Уровень сложностиПростой
Время на прочтение18 мин
Охват и читатели7.9K

Всем привет! На связи Сергей Смирнов, действующий и практикующий AI-инженер. ИИ интересовал меня задолго до нынешнего хайпа: ещё со времён защиты кандидатской, он всегда был для меня не панацеей, а инструментом автоматизации и решения прикладных задач.

С началом «эры» генеративного ИИ я занимаюсь разработкой агентских систем — и в этой статье хочу поделиться тем, что происходит, когда агента нужно не просто запустить, а сделать так, чтобы он работал надёжно, предсказуемо и без страха отдать его реальным пользователям.

Это будет своего рода дорожная карта подготовки агента к продакшену.

Читать далее

TAPe‑дневник, день 6: синтетика, эмбеддинги и первый уход от трансформеров

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели5.4K

В этой статье продолжаем онлайн‑дневник экспериментов с TAPe‑подходом к компьютерному зрению на COCO. Здесь – про обучение эмбеддингов на полностью синтетических TAPe‑данных, 74% точности классификации на 5k val‑изображениях и первые выводы о том, почему стандартные трансформеры нам не подходят.

Долой трансформеры

Квантизация с нуля: как запустить 160ГБ LLM на ноутбуке и не потерять в качестве

Уровень сложностиСредний
Время на прочтение18 мин
Охват и читатели20K

Qwen-3-Coder-Next — модель с 80 миллиардами параметров и весом 159,4 ГБ. Примерно столько RAM потребовалось бы для её запуска, и это ещё без учёта длинного контекстного окна. И эта модель не считается большой моделью! По слухам, у frontier-моделей более триллиона параметров, для которых понадобилось бы минимум 2 ТБ оперативной памяти. Последний раз я видел столько RAM в одной машине — никогда.

Но что если я скажу, что можно сделать LLM в 4 раза меньше и в 2 раза быстрее — достаточно, чтобы запускать весьма мощные модели на ноутбуке, — при потере точности всего 5–10%?

В этом и заключается магия квантизации.

В этой статье вы узнаете:
Почему параметры модели делают её такой большой
Как работает точность чисел с плавающей точкой и чем жертвуют модели
Как сжимать числа с плавающей точкой с помощью квантизации
Как измерить потерю качества модели после квантизации

Читать далее

Хотел перестать копировать из Wordstat. Получилась мультиагентная система с Ensemble Voting

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели5.6K

Началось с того что мне надоело копировать данные из Wordstat в Excel. Закончилось мультиагентной системой с Ensemble Voting, арбитражным агентом и 5% мусора на выходе.

Ни одного из этих слов в моих планах не было.

Читать далее

Отчет о сравнении ответов нейросетей по запросу о масштабировании IT-бизнеса

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели4.4K

Фоллоу-ап к недавнему посту-обещанию

Я провел исследование, и результаты публикую.

Идея исследования - можно ли уже сейчас обращаться к ИИ, когда собственник небольшой фирмы хочет начать развивать компанию, не знает с чего начать, и хочет "попробовать воду" с небольшими инвестициями. Есть ли польза от ИИ в такой ситуации? И наоборот - может ли ИИ составить конкуренцию живому консультанту по развитию и менеджменту, типа меня?

Судить вам.

Я выбрал 10 нейросетей. Задал каждой из них одинаковый промпт:

Читать далее

FLUX.2-dev GGUF Q4_K_M на Apple Silicon: куда уходят 29 гигабайт?

Уровень сложностиСложный
Время на прочтение7 мин
Охват и читатели5.4K

В процессе моих изысканий о том как-же создавть изображения локально, я столкнулся с неочевидной, для себя, проблемой в виде колоссального потребления VRAM, которое не сходилось с тем что написано в карточках моделей и в интернете.

Я попытался разобраться на примере современной FLUX.2-dev. Чтобы хотябы теоретически влезать в доступную мне VRAM на моем оборудовании я выбрал вариант GGUF Q4_K_M. И вот тут началось все самое интересное.

Читать далее

ИИ не понимает код, пока разработчик не понимает его «мышление»

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели9.4K

Разработчики всё чаще подключают ИИ к задачам — от обработки данных до генерации тестов. На первом просмотре такой код выглядит аккуратно и логично. Но при рабочей нагрузке в нём часто вскрываются ошибки, которые модель не учла.

Расскажем, почему код от ИИ выглядит корректным даже при логических пробелах, что такое LLM‑интеллект, как ИИ‑грамотность связана с переоценкой качества кода и какие инженерные практики помогают выстроить работу с моделью.

Материал подготовлен на основе экспертной колонки старшего вице‑президента Сбера, руководителя блока «Технологий» Кирилла Меньшова, опубликованной в Ferra.

Читать далее