Обновить
18
Максим@SabMakc

Пользователь

0,7
Рейтинг
5
Подписчики
Отправить сообщение

Размышления - это просто "мысли в тему", для наполнения контекста. В финальный ответ они могут и не войти (сталкивался с тем, что размышления и ответ были о совершенно разном).

Так что да, размышления помогают. Но зачастую без них ответ не сильно хуже. А главное - значительно быстрее (что имеет значение при локальном инференсе).

Nemotron недавно вышел в похожем размере.
Сталкивался с подобными проблемами - как правило, агрессивный квант виноват.

А если специально "шакалить" качество звука - не скроет проблемы с голосом? Да и реализма может добавить... И уж точно "плохая связь" ведет к увеличению длительности разговора на переуточнения )

А еще можно попробовать добавить акцента )

Есть одно очень принципиальное отличие. OpenAI на каждом запросе к ChatGPT теряет деньги. Даже подписка за 200$ убыточна.

Основное - уйдут бесплатные аккаунты. И более 90% текущих пользователей тут же отвалится (на сколько помню, платит сейчас около 6% пользователей ChatGPT).
Поднимутся цены (может и в 10 раз, тут не берусь оценивать) - и еще половина оставшихся отвалится.

Китайские ИИ тоже спонсируются. Другое дело, что они, как правило, открывают свои модели - а значит их можно запустить локально (или у другого провайдера).

Вопрос еще и в обучении моделей - оно тоже крайне требовательно к вычислениями.

Поднимут голову какие-нибудь эко-активисты - и местами использование ИИ могут вообще запретить (или обложить налогами).

Возможно в том, что образование как раз стимулирует способности осознавать новые ситуации, способности к обучению и запоминанию, пониманию и применению абстрактных концепций, и использованию своих знаний.

Только есть нюанс - средний интеллект растет (доступность и качество образования растут).
И тест IQ усложняют, чтобы соответствовать медиане 100 )

Отсюда интересный вывод: хочешь IQ повыше? Бери максимально старый тест )))

Вы запустили Лаксианский строитель, не имея ключа на выключение.

На самом деле ключ очень прост. ИИ требует очень высоких вычислительных ресурсов, а значит высокое энергопотребление и высокое выделение тепла. Он очень дорог в вычислениях. И цены резко поднимутся, как только деньги инвесторов закончатся. Использование ИИ резко пойдет на спад.

Да, полностью ИИ уже не уйдет. Да, есть и локальный инференс. Но именно текущее бесконтрольное использование должно будет уйти.

Код за LLM надо очень тщательно изучать - тщательнее, чем за джунами. Я знаю, где может ошибиться джун или более опытный коллега. Причем коллега, как правило, сам поймет, что "что-то не то" и посоветуется с другими.

LLM же пишет очень убедительный код. При этом подвох может быть в самом неожиданном месте. И на этом ревью кода, как правило, большая часть выигрыша от LLM пропадает. Может не всегда, может для отдельных задач и все хорошо отрабатывает, сохраняя ускорение. Но само ожидание подвоха очень портит впечатление.

P.S. LLM не зря называют бредогенераторами. Они сами не знают, что они хорошо знают, а что нет. Поэтому у них возникает не "не знаю", а так называемая галлюцинация. Но по факту весь продукт работы LLM - это одна сплошная галлюцинация. Просто большая часть пришлась к месту. И это "не знаю" просто невозможно реализовать в рамках текущих алгоритмов работы LLM.

Scrum, в первую очередь, про быстрые итерации. Предсказуемость тут от силы в регулярных релизах.

У меня сегодня за день закрыты три таски

А без LLM сколько бы было? А сколько новых проблем внесли?
Вопрос не в количестве задач. Вопрос в ответственности. Из ответственности уже идут и прочие вопросы - качество кода, предсказуемость поведения, контроль изменений.

LLM хороши для небольших и простых проектов - это да. Для сложных и больших - однозначно не сравнятся с человеком. Но где именно проходит граница применимости LLM - очень большой вопрос. Начинается просто множество нюансов - о стеке технологий, о размере проекта, о его сложности и т.д.

Может это и схоже с "техники программирования из прошлого", но надо понимать, что эти техники были необходимостью.

Разработка была дорогой и сложной. Считали каждый байт памяти и тик процессора. Программист буквально решал другие задачи. Не "как json в БД положить", а "как байты в строку собрать корректно". Как только компьютеры стали быстрее - появились более высокоуровневые языки - и от тех подходов, в большинстве своем, отказались. Тот же Scrum был и остается ответом на это принципиальное изменение (как бы его не хвалили или ругали).

ИИ же (LLM) - это имитация человека. Да, бредогенератор в своей сути, "T9 на стероидах" и прочие сомнительные описания вполне применимы. Но фундаментально LLM остается имитацией. И очень большая проблема - что обучена эта имитация на очень большом и очень разнородном наборе данных. И когда какой "участок" обучения активируется - не знает ни кто. В одном случае может выдать идеальный результат, а в другом - кое-как работающее поделие. На одних и тех же исходных данных.

Именно поэтому код лучше промта - он детерминирован практически полностью (если не брать нюансы с версиями и прочими моментами).

Да, 1000 обезьян с пишущими машинками рано или поздно напишут войну и мир. Но кому хочется становиться менеджером этой команды мечты?

Классная статья. Но вычитки не хватает.

Например, "Второй анализирует функции Третий собирает отзывы" - сбитый список.

А для схем лучше использовать какой-нибудь mermaid (flowchart) - не будет ни висящих концов, ни лишних зигзагов, ни слипающихся стрелок, ни старта в рандомном месте.

Я бы попробовал что-то вроде "Последнее сообщение чата передается в новую сессию" + доступ к системе. И в 1м сообщении описать что и как работает.

И посмотреть, что модель оставит для следующих поколений себя же )

Да, для обучения LLM надо очень много материалов - это известная проблема, которую пытаются решать. Но, судя по всему, так и не решат. А если и решат - то это будет уже не LLM )

P.S. AGI - это тоже ненаучное понятие. Даже четкого определения не существует.

Собственно самый интересный вопрос: а контролировать доступ ребенка к ИИ?
Хорошо, когда в рамках учебы есть доступ и там определенные роли и ограничения задаются.
Но что помешает списывать у ИИ домашку? Как регулировать тут, если чат-боты прямо в браузере доступны и не требуют регистрации?

LLM учились подражать человеку. Стоит ли удивляться, что психология / философия (и прочее) тоже помогают понять LLM?

P.S. а AGI на текущем этапе недостижим по гораздо более прозаической причине - нет обучающих материалов. Чтобы обучить сверхразум нужны тексты от сверхразума в очень больших количествах. А мы пока и сами не знаем, что такое AGI.

P.S. впрочем, писать в БД через какой-нибудь примитив синхронизации потоков надежнее будет, чем busyTimeout.

Да, в SQLite однопоточная запись. Но если установить busyTimeout - то попытка записи будет ждать указанное время своей очереди (хорошо работает с WAL-режимом).
Так что отправлять все записи в одну очередь нет особого смысла.
Единственное - транзакцию на запись рекомендую начинать как BEGIN IMMEDIATE - иначе запись начнется в момент реальной записи и есть риск получить ошибку SQLITE_BUSY.

s02 — Multiple Tools

Dispatch map: вместо одного инструмента — таблица маршрутизации. Теперь агент умеет не только bash, но и читать файлы, искать по коду.

А разве в s01 не закрыт вопрос вызова инструментов? Или в s1 только консоль в инструментах?

P.S. забыли про грамотно написанные промты к этому всему )

И собственно в самом коммите от ИИ (claude), скорее всего, только документация.
Уж извините, ИИ ТАК код не пишет.

Информация

В рейтинге
2 270-й
Откуда
Россия
Зарегистрирован
Активность