Размышления - это просто "мысли в тему", для наполнения контекста. В финальный ответ они могут и не войти (сталкивался с тем, что размышления и ответ были о совершенно разном).
Так что да, размышления помогают. Но зачастую без них ответ не сильно хуже. А главное - значительно быстрее (что имеет значение при локальном инференсе).
А если специально "шакалить" качество звука - не скроет проблемы с голосом? Да и реализма может добавить... И уж точно "плохая связь" ведет к увеличению длительности разговора на переуточнения )
Основное - уйдут бесплатные аккаунты. И более 90% текущих пользователей тут же отвалится (на сколько помню, платит сейчас около 6% пользователей ChatGPT). Поднимутся цены (может и в 10 раз, тут не берусь оценивать) - и еще половина оставшихся отвалится.
Китайские ИИ тоже спонсируются. Другое дело, что они, как правило, открывают свои модели - а значит их можно запустить локально (или у другого провайдера).
Вопрос еще и в обучении моделей - оно тоже крайне требовательно к вычислениями.
Поднимут голову какие-нибудь эко-активисты - и местами использование ИИ могут вообще запретить (или обложить налогами).
Возможно в том, что образование как раз стимулирует способности осознавать новые ситуации, способности к обучению и запоминанию, пониманию и применению абстрактных концепций, и использованию своих знаний.
Вы запустили Лаксианский строитель, не имея ключа на выключение.
На самом деле ключ очень прост. ИИ требует очень высоких вычислительных ресурсов, а значит высокое энергопотребление и высокое выделение тепла. Он очень дорог в вычислениях. И цены резко поднимутся, как только деньги инвесторов закончатся. Использование ИИ резко пойдет на спад.
Да, полностью ИИ уже не уйдет. Да, есть и локальный инференс. Но именно текущее бесконтрольное использование должно будет уйти.
Код за LLM надо очень тщательно изучать - тщательнее, чем за джунами. Я знаю, где может ошибиться джун или более опытный коллега. Причем коллега, как правило, сам поймет, что "что-то не то" и посоветуется с другими.
LLM же пишет очень убедительный код. При этом подвох может быть в самом неожиданном месте. И на этом ревью кода, как правило, большая часть выигрыша от LLM пропадает. Может не всегда, может для отдельных задач и все хорошо отрабатывает, сохраняя ускорение. Но само ожидание подвоха очень портит впечатление.
P.S. LLM не зря называют бредогенераторами. Они сами не знают, что они хорошо знают, а что нет. Поэтому у них возникает не "не знаю", а так называемая галлюцинация. Но по факту весь продукт работы LLM - это одна сплошная галлюцинация. Просто большая часть пришлась к месту. И это "не знаю" просто невозможно реализовать в рамках текущих алгоритмов работы LLM.
Scrum, в первую очередь, про быстрые итерации. Предсказуемость тут от силы в регулярных релизах.
У меня сегодня за день закрыты три таски
А без LLM сколько бы было? А сколько новых проблем внесли? Вопрос не в количестве задач. Вопрос в ответственности. Из ответственности уже идут и прочие вопросы - качество кода, предсказуемость поведения, контроль изменений.
LLM хороши для небольших и простых проектов - это да. Для сложных и больших - однозначно не сравнятся с человеком. Но где именно проходит граница применимости LLM - очень большой вопрос. Начинается просто множество нюансов - о стеке технологий, о размере проекта, о его сложности и т.д.
Может это и схоже с "техники программирования из прошлого", но надо понимать, что эти техники были необходимостью.
Разработка была дорогой и сложной. Считали каждый байт памяти и тик процессора. Программист буквально решал другие задачи. Не "как json в БД положить", а "как байты в строку собрать корректно". Как только компьютеры стали быстрее - появились более высокоуровневые языки - и от тех подходов, в большинстве своем, отказались. Тот же Scrum был и остается ответом на это принципиальное изменение (как бы его не хвалили или ругали).
ИИ же (LLM) - это имитация человека. Да, бредогенератор в своей сути, "T9 на стероидах" и прочие сомнительные описания вполне применимы. Но фундаментально LLM остается имитацией. И очень большая проблема - что обучена эта имитация на очень большом и очень разнородном наборе данных. И когда какой "участок" обучения активируется - не знает ни кто. В одном случае может выдать идеальный результат, а в другом - кое-как работающее поделие. На одних и тех же исходных данных.
Именно поэтому код лучше промта - он детерминирован практически полностью (если не брать нюансы с версиями и прочими моментами).
Да, 1000 обезьян с пишущими машинками рано или поздно напишут войну и мир. Но кому хочется становиться менеджером этой команды мечты?
Например, "Второй анализирует функции Третий собирает отзывы" - сбитый список.
А для схем лучше использовать какой-нибудь mermaid (flowchart) - не будет ни висящих концов, ни лишних зигзагов, ни слипающихся стрелок, ни старта в рандомном месте.
Да, для обучения LLM надо очень много материалов - это известная проблема, которую пытаются решать. Но, судя по всему, так и не решат. А если и решат - то это будет уже не LLM )
P.S. AGI - это тоже ненаучное понятие. Даже четкого определения не существует.
Собственно самый интересный вопрос: а контролировать доступ ребенка к ИИ? Хорошо, когда в рамках учебы есть доступ и там определенные роли и ограничения задаются. Но что помешает списывать у ИИ домашку? Как регулировать тут, если чат-боты прямо в браузере доступны и не требуют регистрации?
LLM учились подражать человеку. Стоит ли удивляться, что психология / философия (и прочее) тоже помогают понять LLM?
P.S. а AGI на текущем этапе недостижим по гораздо более прозаической причине - нет обучающих материалов. Чтобы обучить сверхразум нужны тексты от сверхразума в очень больших количествах. А мы пока и сами не знаем, что такое AGI.
Да, в SQLite однопоточная запись. Но если установить busyTimeout - то попытка записи будет ждать указанное время своей очереди (хорошо работает с WAL-режимом). Так что отправлять все записи в одну очередь нет особого смысла. Единственное - транзакцию на запись рекомендую начинать как BEGIN IMMEDIATE - иначе запись начнется в момент реальной записи и есть риск получить ошибку SQLITE_BUSY.
Размышления - это просто "мысли в тему", для наполнения контекста. В финальный ответ они могут и не войти (сталкивался с тем, что размышления и ответ были о совершенно разном).
Так что да, размышления помогают. Но зачастую без них ответ не сильно хуже. А главное - значительно быстрее (что имеет значение при локальном инференсе).
Nemotron недавно вышел в похожем размере.
Сталкивался с подобными проблемами - как правило, агрессивный квант виноват.
А если специально "шакалить" качество звука - не скроет проблемы с голосом? Да и реализма может добавить... И уж точно "плохая связь" ведет к увеличению длительности разговора на переуточнения )
А еще можно попробовать добавить акцента )
Есть одно очень принципиальное отличие. OpenAI на каждом запросе к ChatGPT теряет деньги. Даже подписка за 200$ убыточна.
Основное - уйдут бесплатные аккаунты. И более 90% текущих пользователей тут же отвалится (на сколько помню, платит сейчас около 6% пользователей ChatGPT).
Поднимутся цены (может и в 10 раз, тут не берусь оценивать) - и еще половина оставшихся отвалится.
Китайские ИИ тоже спонсируются. Другое дело, что они, как правило, открывают свои модели - а значит их можно запустить локально (или у другого провайдера).
Вопрос еще и в обучении моделей - оно тоже крайне требовательно к вычислениями.
Поднимут голову какие-нибудь эко-активисты - и местами использование ИИ могут вообще запретить (или обложить налогами).
Возможно в том, что образование как раз стимулирует способности осознавать новые ситуации, способности к обучению и запоминанию, пониманию и применению абстрактных концепций, и использованию своих знаний.
Только есть нюанс - средний интеллект растет (доступность и качество образования растут).
И тест IQ усложняют, чтобы соответствовать медиане 100 )
Отсюда интересный вывод: хочешь IQ повыше? Бери максимально старый тест )))
На самом деле ключ очень прост. ИИ требует очень высоких вычислительных ресурсов, а значит высокое энергопотребление и высокое выделение тепла. Он очень дорог в вычислениях. И цены резко поднимутся, как только деньги инвесторов закончатся. Использование ИИ резко пойдет на спад.
Да, полностью ИИ уже не уйдет. Да, есть и локальный инференс. Но именно текущее бесконтрольное использование должно будет уйти.
Код за LLM надо очень тщательно изучать - тщательнее, чем за джунами. Я знаю, где может ошибиться джун или более опытный коллега. Причем коллега, как правило, сам поймет, что "что-то не то" и посоветуется с другими.
LLM же пишет очень убедительный код. При этом подвох может быть в самом неожиданном месте. И на этом ревью кода, как правило, большая часть выигрыша от LLM пропадает. Может не всегда, может для отдельных задач и все хорошо отрабатывает, сохраняя ускорение. Но само ожидание подвоха очень портит впечатление.
P.S. LLM не зря называют бредогенераторами. Они сами не знают, что они хорошо знают, а что нет. Поэтому у них возникает не "не знаю", а так называемая галлюцинация. Но по факту весь продукт работы LLM - это одна сплошная галлюцинация. Просто большая часть пришлась к месту. И это "не знаю" просто невозможно реализовать в рамках текущих алгоритмов работы LLM.
Scrum, в первую очередь, про быстрые итерации. Предсказуемость тут от силы в регулярных релизах.
А без LLM сколько бы было? А сколько новых проблем внесли?
Вопрос не в количестве задач. Вопрос в ответственности. Из ответственности уже идут и прочие вопросы - качество кода, предсказуемость поведения, контроль изменений.
LLM хороши для небольших и простых проектов - это да. Для сложных и больших - однозначно не сравнятся с человеком. Но где именно проходит граница применимости LLM - очень большой вопрос. Начинается просто множество нюансов - о стеке технологий, о размере проекта, о его сложности и т.д.
Может это и схоже с "техники программирования из прошлого", но надо понимать, что эти техники были необходимостью.
Разработка была дорогой и сложной. Считали каждый байт памяти и тик процессора. Программист буквально решал другие задачи. Не "как json в БД положить", а "как байты в строку собрать корректно". Как только компьютеры стали быстрее - появились более высокоуровневые языки - и от тех подходов, в большинстве своем, отказались. Тот же Scrum был и остается ответом на это принципиальное изменение (как бы его не хвалили или ругали).
ИИ же (LLM) - это имитация человека. Да, бредогенератор в своей сути, "T9 на стероидах" и прочие сомнительные описания вполне применимы. Но фундаментально LLM остается имитацией. И очень большая проблема - что обучена эта имитация на очень большом и очень разнородном наборе данных. И когда какой "участок" обучения активируется - не знает ни кто. В одном случае может выдать идеальный результат, а в другом - кое-как работающее поделие. На одних и тех же исходных данных.
Именно поэтому код лучше промта - он детерминирован практически полностью (если не брать нюансы с версиями и прочими моментами).
Да, 1000 обезьян с пишущими машинками рано или поздно напишут войну и мир. Но кому хочется становиться менеджером этой команды мечты?
Классная статья. Но вычитки не хватает.
Например, "Второй анализирует функции Третий собирает отзывы" - сбитый список.
А для схем лучше использовать какой-нибудь mermaid (flowchart) - не будет ни висящих концов, ни лишних зигзагов, ни слипающихся стрелок, ни старта в рандомном месте.
Я бы попробовал что-то вроде "Последнее сообщение чата передается в новую сессию" + доступ к системе. И в 1м сообщении описать что и как работает.
И посмотреть, что модель оставит для следующих поколений себя же )
Да, для обучения LLM надо очень много материалов - это известная проблема, которую пытаются решать. Но, судя по всему, так и не решат. А если и решат - то это будет уже не LLM )
P.S. AGI - это тоже ненаучное понятие. Даже четкого определения не существует.
Собственно самый интересный вопрос: а контролировать доступ ребенка к ИИ?
Хорошо, когда в рамках учебы есть доступ и там определенные роли и ограничения задаются.
Но что помешает списывать у ИИ домашку? Как регулировать тут, если чат-боты прямо в браузере доступны и не требуют регистрации?
LLM учились подражать человеку. Стоит ли удивляться, что психология / философия (и прочее) тоже помогают понять LLM?
P.S. а AGI на текущем этапе недостижим по гораздо более прозаической причине - нет обучающих материалов. Чтобы обучить сверхразум нужны тексты от сверхразума в очень больших количествах. А мы пока и сами не знаем, что такое AGI.
P.S. впрочем, писать в БД через какой-нибудь примитив синхронизации потоков надежнее будет, чем busyTimeout.
Да, в SQLite однопоточная запись. Но если установить busyTimeout - то попытка записи будет ждать указанное время своей очереди (хорошо работает с WAL-режимом).
Так что отправлять все записи в одну очередь нет особого смысла.
Единственное - транзакцию на запись рекомендую начинать как
BEGIN IMMEDIATE- иначе запись начнется в момент реальной записи и есть риск получить ошибкуSQLITE_BUSY.А разве в s01 не закрыт вопрос вызова инструментов? Или в s1 только консоль в инструментах?
P.S. забыли про грамотно написанные промты к этому всему )
И собственно в самом коммите от ИИ (claude), скорее всего, только документация.
Уж извините, ИИ ТАК код не пишет.