Если вы считаете, что текст который я дал модели - это "буквально алгоритм решения", то.. пожалуй стоит начать с определения алгоритма :) Но это уже совсем не интересно.
Тратить время на убеждение кого-то кто тебя не слышит довольно глупо.
В любом случае я уже сказал все что хотел сказать, продолжение считаю бессмысленным. Удачи.
Тест с бананами я проводил на grok4 (не heavy). Агентного режима там нет.
Тест с изумрудами проверял в grok и chatgpt (без использования агентов) - ответ везде верный. о3 еще запустил через API, чтобы исключить надстройки браузерной версии - опять же ответ верный.
Вам не нравится термин "прикол" - придумайте свой, это не суть. Суть в том, что вы не правы говоря, что у агентов "нет понимания задач связанных со временем". Задача про изумруды, гораздо более сложная в смысле понимания времени - и LLM с ней отлично справляется.
В то время как в вашей задаче - с точки зрения "понимания времени" - все крайне тривиально. Но LLM не справляется - почему? Ответ на ваших же скриншотах. LLM просто не понимает логику вашей задачи. Она пытается разобраться: может у вас какой-то процесс связанный с ростом числа бананов? Арифметическая прогрессия? Еще какая-то зависимость? При этом, по рассуждениям очевидно что как раз "временные" понятия, такие как "завтра", "вчера", "год назад" - модель прекрасно понимает и оперирует ими.
Переформулируем вашу задачу: "вчера показатель X был равен 2, завтра он будет равен 4, чему он равен сегодня?". Вы настаиваете (на примере с бананами), что ответ 2, потому, что завтра еще не наступило и X не изменилось, а информация о завтра - это просто "избыточные данные". Но это ваше понимание задачи. А можно понимать так что сегодня X = 3, потому что каждый день добавляется 1. Чем такое понимание неправильно?
LLM в данном случае не понимает, что вы от нее хотите, потому что вы закладываете свое понимание задачи, и это скрытая информация которой у модели нет. Человек по формулировке задачи может догадаться о том, что вы ожидаете увидеть в ответе, LLM - (если не брать самые продвинутые модели) - нет.
И все это легко доказать. Добавьте описание всех этих "скрытых" моментов которые вы "предполагаете". Это никак не повлияет на "понимание времени" моделью - но это просто подскажет что вы от нее хотите.
Как видите ответ верный. И это на крохотной локальной модельке gemma 4B без рассуждений и на русском языке!
Как видите даже у такой модельки которую можно на мобилке запустить - с "пониманием времени" вопросов не возникает. Продвинутые модели, конечно, тоже дадут верный ответ, даже при гораздо менее подробном описании.
Я не говорю, что у моделей вообще нет проблем с пониманием реального мира (и времени в частности). Да, это та тема в которой LLM отстают от людей, так как она хуже представлена в обучающих данных. Но, во-первых - это, вероятно, не принципиальное ограничение связанное с отсутствием каких-то специальных нейронов (у человека они отличаются функцией, а не структурой), а скорее особенность обучения; во-вторых - успех современных моделей с таких задачах как раз показывает, что это не принципиальный рубеж, а скорее просто область отставания; в-третьих - опираться на задачки "для дошкольников" в оценке современных моделей - не стоит, результат очень легко неверно интерпретировать.
Во первых на этот вопрос нормальные модели дают правильный ответ:
Во вторых - эта формулировка такой же "прикол" как и первая. Просто потому что если в реальной работе возникнет такая формулировка - то опечатка гораздо вероятнее чем бессмысленный вопрос.
Поэтому нейросеть и отвечает на вопрос некорректно - она не "машина логики" как у фантастов, а статистическая модель основанная на продуктах разума человека, и ей свойственны те же ошибки и когнитивные искажения что и "исходнику".
И это легко доказать. Как я у же написал. Достаточно взять гораздо более сложную в смысле временных интервалов в задачу, но четко определенную и без "приколов". Например:
Задача придумана только что. В обучающей выборке ее точно нет. Рассуждения всех моделей в которых проверил - совершенно верные.
Приведенная вами задача - это не задача на понимание времени (как вы пытаетесь ее выставить), так как это вообще не "задача", а "прикол". Т.е. вопрос формулировка которого умышленно сконструирована так чтобы ввести читателя в заблуждение.
Большинство людей несмотря на "нейронные клетки времени", если их заранее не предупредить - поймут задачу точно также как ИИ, потому, что это понимание наделяет задачу смыслом. Да, если вчитаться то "прикол" очевиден, но он полностью лишает задачу смысла (мы спрашиваем то, что уже знаем).
ИИ не обучали распознавать приколы, потому, что это экономически бесполезно. Но никто не мешает составить датасет подобных "приколов" и дообучить модель. Весьма вероятно, что это сработает и такие "приколы" модель сможет решать куда лучше. Что сильно усложнит задачу тем кто хочет почувствовать свое превосходство выискивая подобные конструкции. Только это произойдет не потому, что модель научилась "чувству времени".
Если я не прав - можно просто дать ИИ нормальную задачу на рассуждения связанные со временем без "приколов" - и посмотреть.
Я опасался, что так может быть прочитано, но имел ввиду совсем не это. У меня нет иллюзий на счет некой "высшей субъективности" человека или подобного бреда.
Говоря о том что, "внутри никого нет" - я скорее о отсутствии динамики (ну и о красоте метафоры, куда без этого)).
Обычная нейросеть сейчас - это "слепок" разума, на него можно под разными углами смотреть (задавать разные вопросы), но он не развивается и не меняется в ходе бесед.
Но это не значит, что нельзя сделать полноценный разум. И на мой взгляд им как раз являются продвинутые ИИ-агенты, которые имеют память, и рассуждая приходят к выводам, могут строить планы и пр. Пока системы из них небольшие и не сложные, но по мере их развития мы непременно придем к AGI (это уже мое личное мнение).
И в ответ на очевидный ответ: риски - только часть уравнения. Как минимум оно еще включает пользу и стоимость. Вот по балансу рисков/пользы/стоимости - нейросети и вытесняют людей.
Правильнее, конечно, считать отдельно стоимость пользы и стоимость рисков, а риски еще делить на кратковременные и отложенные. И тут уже все не так однозначно. Но бизнесу всегда важнее краткосрочные риски/выгоды, а на отложенные есть мантра "к тому времени ИИ станет еще умнее и решит эти отложенные проблемы тоже, переписав хоть весь проект".
Причем глядя на развитие последние годы/месяцы - даже сложно сказать глупая это мантра или нет?
Я писал об обычном кино ("2D"), просмотр которого в шлеме по сути ничем от обычного просмотра в кинотеатре не отличается (кроме качества).
Касательно просмотра стереофильмов - согласен с вами, только с тем замечанием, что режиссеры довольно быстро это все поняли и в фильмах которые изначально задуманы как стерео таких игр с фокусом как правило нет. Этим грешат в основном "конвертации в стерео", или фильмы которые хоть и были сняты "в 3D" но основные деньги зарабатывали в обычных кинотеатрах.
Если же говорить о панорамных видео, то там даже на камерах как правило нет возможности регулировать фокус, потому что для VR-фильма это ненужно (ну и потому, что это сильно увеличило бы габариты и стоимость).
Как я понимаю в шлемах фокусировка сделана "на бесконечность", чтобы мозг меньше спотыкался от того, что все предметы четкие. Т.е. смотреть в шлем, для глаз, подобно тому как смотреть вдаль. И неважно, на что в шлеме смотришь.
Поэтому я и написал про кино. Можно было то же время смотреть в шлеме фильмы (что интереснее чем упражнения), а "лечение" псевдоблизорукости было бы примерно таким же.
Хотя возможно тут и еще какой-то эффект срабатывает, не знаю. Я тоже думаю, что японские ученые не дураки :)
Погодите, но ведь в Quest 2 фокусное расстояние всегда одинаковое, независимо от расстояния до виртуального объекта.
Т.е. мозг обманывался, пытался наводиться на удаленный объект, но по факту не наводился (иначе картинка бы стала мутной), и это как-то положительно влияло на зрение?
Что-то мне кажется, смотреть кино в шлеме было бы столь же полезно))
«Может ли ИИ превзойти Льва Толстого и самостоятельно написать шедевр, подобный "Войне и миру"?» В обозримом будущем ответ: «Нет!»
Все зависит от слова "обозримом". Если обозримым является + пара месяцев к текущему моменту - то возражений нет. Собственно с этим тезисом в таком варианте никто не спорил. А если "обозримый" - это пару лет, или больше - то возникают ооочень большие сомнения по поводу изложенного.
Сравнивать токены по-любому странно. Даже если забыть о том, что уже есть модели с окном 2 млн токенов, куда роман влезет целиком. Вот как думаете, у Лева Николаевича в кратковременную память сколько токенов помещалось? Как у всех, +-7 фактов, т.е. пара сотен токенов? Или больше? А токены LLM это ведь "аналог" именно кратковременной памяти, а долговременная у них гораздо больше, туда сколько знаний из интернета влезает...
Суть в том, что обычный запрос к нейросети "напиши роман" - конечно не сработает (пока), ее не на это учили. Но вот если создать агента который будет долго работать над текстом (сколько лет писался Война и Мир?), постепенно дорабатывая текст, как сейчас условный codex работает с репозиторием? А периодические еще и дообучать собственную модель на этом самом тексте и сопутствующих размышлениях, чтобы "наработки" перегружать в постоянную память, делать их частью "картины мира"... Вот какой тогда нейросеть напишет роман?
Это все хорошо, в бесконечном вакууме. Но в реальном мире объем задач конечен.
Пример. Если раньше создание эскизного проекта экспозиции занимало 2-3 недели у трех спецов (дизайн, текст, идеи), то теперь я его делаю один за неделю. Соответственно 5/6 рабочего времени пошло на другие проекты. Мне это безусловно выгодно, цена на готовый проект особо не изменилась (пока). Но музеев больше не стало, и общий объем проектов на которые можно "переключиться" специалистам - тоже почти не вырос.
Вы пишите о росте одиночных стартапов x10. Ок. Согласен. А кто ими всеми будет пользоваться?
Я вот вижу обратный процесс, огромное число инструментов становятся просто ненужными. 7/10 работ которые раньше требовали использования специального софта (и знаний) теперь требуют один инструмент - ИИ, которого можно просто попросить и он сделает.
Это же и в других областях. Все больше пишут о том, что сокращается срок жизни небольших стартапов. Например, появление ИИ породило кучу компаний где применяли его для разных целей (ИИ-переводы, ИИ-презентации, ИИ-редакторы, ИИ-...), но сейчас, у больших игроков дошли руки и каждое их обновление убивает эти мелкие инструменты. Зачем мне отдельный редактор текстов, если у чатагпт есть канвас? Понятно сейчас можно много возражения привести, но тенденция явно обозначилась.
И похоже процесс этот гипер-экспоненциальный, потому что каждая часть работы улучшает и ускоряет все остальные части. Мы видим только самое начало, но размах впечатляет.
Если раньше типичный жизненный цикл успешного стартапа был "решаем узкую задачу, дальше или развиваемся в большую компанию, или продаемся большой компании, или просто много лет решаем эту узкую задачу лучше всех", то теперь все чаще "решаем узкую задачу, гигант рынка вносит эту функцию в свое мега-приложение, а мы тихо загибаемся".
Если под первое охотно давали денег, понимая, что слаженная команда все равно кому-то пригодится и если идея не совсем отстой то при своих точно останешься, да еще и шанс хорошо подняться есть. То вот второй вариант энтузиазма у инвесторов не вызывает.
Опять же, я не говорю, что все уже так, я именно о тенденциях.
И если экстраполировать, то все эти типы которых вы описываете - они замечательно вписываются в новый мир пока ИТ отрасль растет быстрее чем инструменты которые ее строят (в глобальном смысле). И вот вопрос - будет ли отрасль дальше расти быстрее?
Моя производительность выросла за пару лет раз в 5. А объем рынка труда насколько вырос?
Можно возразить "Мы на пороге глобальной цифровизации, рынок IT ждет невиданный рост". Может оно и так. А может каждый из нас просто надеется, что именно он войдет в тот самый 1% которые будут решать все эти проблемы с помощью ИИ (или под руководством ИИ), просто потому, что думать об остальных 99% как то невесело.
Если хранить фигуры то выборки видимых фигур и проверки доступных ходов будут куда затратнее, тем более, что у него фигуры могут не только в рамках своей доски перемещаться.
Так что, чем экономить несколько сотен мегабайт, куда выгоднее хранить данные в том виде в котором с ними удобно работать. Тем более если это его первый опыт в данном ЯП.
Если делать что-то подобное, то стоит автоматизировать и зарабатывание баллов (датчик подъема штанги и пр), чтобы ребенок действительно был хозяином ситуации (хоть и в ограниченной среде).
Естественно в такой системе была бы куча дыр, и это самое главное - за обход системы я бы не наказывал, а поощрял. Смог обойти - молодец, вот тебе +20 часов на игры, но я эту дыру закрою, и посмотрим как ты справишься теперь...
Вот в таком виде это бы правда могло сработать. улучшить отношения, увлечь IT и пр. Особенно если отец умный, и понимает какого уровня дыры сможет найти его ребенок, и заранее их предусматривает ;)
Использовать эту память вместо RAM/VRAM не получится, с 5 млн цикла до отказа она и секунды не проработает. Т.е. только как быстрый ссд для хранения моделей, и за очень много денег.
Ну то есть здорово, конечно, но ИИ тут явно только для хайпа.
На сегодняшний день и в ближайшие десятилетия ни один искусственный интеллект не способен и не будет способен на такое.
Вы меня простите, но эта фраза не производит впечатления взвешенного и разумного подхода к анализу тем связанных с ИИ.
Обычно столь категоричные предсказания (аж на десятилетия вперед), в этой области можно услышать или от людей крайне поверхностно знакомых с темой ИИ, или от тех кто делит мир на свое мнение и неправильное.
Утопия это. Человечество просто не так устроено. Это не единый организм который может выстроить свою стратегию поведения и ее придерживаться. Это многоагентная система и каждый агент руководствуется собственными желаниями и представлениями.
Мне может быть выгодно пойти и ограбить магазин (чтобы покушать не работая), но я не делаю потому, что сотрудникам милиции выгодно меня за это покарать (чтобы получить зарплату)... и так далее. И если эту цепочку раскручивать дальше - она никем не заканчивается, замыкаясь когда люди принимающие больше решений, зависят вновь от тех на кого их решения влияют (демократия или диктатура на этом клочке суши - неважно, я про масштаб всей планеты).
Т.е. человечество это замкнутая, сбалансированная система где каждый делает то что ему выгодно (не в плане денег, а вообще). И размышления в духе "вот если бы все вместе взяли и стали делать вот так" - означает, что вы хотите эту систему разбалансировать. Т.е. в ней должны возникнуть ситуации когда отдельному конкретному человеку выгодно действовать так, а он действуют иначе.
Выход - придумать новую замкнутую, сбалансированную систему учитывающую поведение каждого человека на планете так чтобы они все действовали так как им выгодно но общее развитие шло туда куда вам нужно. Эта задача сама по себе мягко говоря сложная. Но еще сложнее что перейти со старой системы на новую нужно тоже "выгодным" путем, а это значит что в какой-то момент должна быть развилка где есть два совершенно одинаковых пути, а человечество должно дружно пойти по нужному вам. Статистически это невероятно.
Второй вариант - мягко куда-то толкать, надеясь что оно все сдвинется туда куда вам хочется. Для этого есть идеология или ее частный случай - религия. Только вот инструмент мягко говоря сложный и капризный, куда что выльется - предсказать шансов мало.
А в вашем случае шансов вообще нет, потому что нужно конкретно так поменять установки и желания у такого числа людей, да еще по ключевым для них вопросам, что тут пришествием пророка не обойтись, минимум высадка инопланетного флота понадобится.
Интересно - это как? Объяснит мне, что можно на экране копировать, а что нет?
Если вы считаете, что текст который я дал модели - это "буквально алгоритм решения", то.. пожалуй стоит начать с определения алгоритма :) Но это уже совсем не интересно.
Тратить время на убеждение кого-то кто тебя не слышит довольно глупо.
В любом случае я уже сказал все что хотел сказать, продолжение считаю бессмысленным. Удачи.
Тест с бананами я проводил на grok4 (не heavy). Агентного режима там нет.
Тест с изумрудами проверял в grok и chatgpt (без использования агентов) - ответ везде верный. о3 еще запустил через API, чтобы исключить надстройки браузерной версии - опять же ответ верный.
Вам не нравится термин "прикол" - придумайте свой, это не суть. Суть в том, что вы не правы говоря, что у агентов "нет понимания задач связанных со временем". Задача про изумруды, гораздо более сложная в смысле понимания времени - и LLM с ней отлично справляется.
В то время как в вашей задаче - с точки зрения "понимания времени" - все крайне тривиально. Но LLM не справляется - почему? Ответ на ваших же скриншотах. LLM просто не понимает логику вашей задачи. Она пытается разобраться: может у вас какой-то процесс связанный с ростом числа бананов? Арифметическая прогрессия? Еще какая-то зависимость? При этом, по рассуждениям очевидно что как раз "временные" понятия, такие как "завтра", "вчера", "год назад" - модель прекрасно понимает и оперирует ими.
Переформулируем вашу задачу: "вчера показатель X был равен 2, завтра он будет равен 4, чему он равен сегодня?". Вы настаиваете (на примере с бананами), что ответ 2, потому, что завтра еще не наступило и X не изменилось, а информация о завтра - это просто "избыточные данные". Но это ваше понимание задачи. А можно понимать так что сегодня X = 3, потому что каждый день добавляется 1. Чем такое понимание неправильно?
LLM в данном случае не понимает, что вы от нее хотите, потому что вы закладываете свое понимание задачи, и это скрытая информация которой у модели нет. Человек по формулировке задачи может догадаться о том, что вы ожидаете увидеть в ответе, LLM - (если не брать самые продвинутые модели) - нет.
И все это легко доказать. Добавьте описание всех этих "скрытых" моментов которые вы "предполагаете". Это никак не повлияет на "понимание времени" моделью - но это просто подскажет что вы от нее хотите.
Как видите ответ верный. И это на крохотной локальной модельке gemma 4B без рассуждений и на русском языке!
Как видите даже у такой модельки которую можно на мобилке запустить - с "пониманием времени" вопросов не возникает. Продвинутые модели, конечно, тоже дадут верный ответ, даже при гораздо менее подробном описании.
Я не говорю, что у моделей вообще нет проблем с пониманием реального мира (и времени в частности). Да, это та тема в которой LLM отстают от людей, так как она хуже представлена в обучающих данных. Но, во-первых - это, вероятно, не принципиальное ограничение связанное с отсутствием каких-то специальных нейронов (у человека они отличаются функцией, а не структурой), а скорее особенность обучения; во-вторых - успех современных моделей с таких задачах как раз показывает, что это не принципиальный рубеж, а скорее просто область отставания; в-третьих - опираться на задачки "для дошкольников" в оценке современных моделей - не стоит, результат очень легко неверно интерпретировать.
Во первых на этот вопрос нормальные модели дают правильный ответ:
Во вторых - эта формулировка такой же "прикол" как и первая. Просто потому что если в реальной работе возникнет такая формулировка - то опечатка гораздо вероятнее чем бессмысленный вопрос.
Поэтому нейросеть и отвечает на вопрос некорректно - она не "машина логики" как у фантастов, а статистическая модель основанная на продуктах разума человека, и ей свойственны те же ошибки и когнитивные искажения что и "исходнику".
И это легко доказать. Как я у же написал. Достаточно взять гораздо более сложную в смысле временных интервалов в задачу, но четко определенную и без "приколов". Например:
Задача придумана только что. В обучающей выборке ее точно нет. Рассуждения всех моделей в которых проверил - совершенно верные.
Приведенная вами задача - это не задача на понимание времени (как вы пытаетесь ее выставить), так как это вообще не "задача", а "прикол". Т.е. вопрос формулировка которого умышленно сконструирована так чтобы ввести читателя в заблуждение.
Большинство людей несмотря на "нейронные клетки времени", если их заранее не предупредить - поймут задачу точно также как ИИ, потому, что это понимание наделяет задачу смыслом. Да, если вчитаться то "прикол" очевиден, но он полностью лишает задачу смысла (мы спрашиваем то, что уже знаем).
ИИ не обучали распознавать приколы, потому, что это экономически бесполезно. Но никто не мешает составить датасет подобных "приколов" и дообучить модель. Весьма вероятно, что это сработает и такие "приколы" модель сможет решать куда лучше. Что сильно усложнит задачу тем кто хочет почувствовать свое превосходство выискивая подобные конструкции. Только это произойдет не потому, что модель научилась "чувству времени".
Если я не прав - можно просто дать ИИ нормальную задачу на рассуждения связанные со временем без "приколов" - и посмотреть.
К слову, на базовом уровне такую штуку очень легко сделать в TouchDesigner. Вообще без программирования :)
вот смолвил так смолвил :)
Я опасался, что так может быть прочитано, но имел ввиду совсем не это. У меня нет иллюзий на счет некой "высшей субъективности" человека или подобного бреда.
Говоря о том что, "внутри никого нет" - я скорее о отсутствии динамики (ну и о красоте метафоры, куда без этого)).
Обычная нейросеть сейчас - это "слепок" разума, на него можно под разными углами смотреть (задавать разные вопросы), но он не развивается и не меняется в ходе бесед.
Но это не значит, что нельзя сделать полноценный разум. И на мой взгляд им как раз являются продвинутые ИИ-агенты, которые имеют память, и рассуждая приходят к выводам, могут строить планы и пр. Пока системы из них небольшие и не сложные, но по мере их развития мы непременно придем к AGI (это уже мое личное мнение).
Отвечая на сообщение стоит прочитать его целиком.
На ваши высказывания я уже ответил, вот прямо после фразы "в ответ на очевидный ответ:"...
А люди не могут все то же самое?
И в ответ на очевидный ответ: риски - только часть уравнения. Как минимум оно еще включает пользу и стоимость. Вот по балансу рисков/пользы/стоимости - нейросети и вытесняют людей.
Правильнее, конечно, считать отдельно стоимость пользы и стоимость рисков, а риски еще делить на кратковременные и отложенные. И тут уже все не так однозначно. Но бизнесу всегда важнее краткосрочные риски/выгоды, а на отложенные есть мантра "к тому времени ИИ станет еще умнее и решит эти отложенные проблемы тоже, переписав хоть весь проект".
Причем глядя на развитие последние годы/месяцы - даже сложно сказать глупая это мантра или нет?
Я писал об обычном кино ("2D"), просмотр которого в шлеме по сути ничем от обычного просмотра в кинотеатре не отличается (кроме качества).
Касательно просмотра стереофильмов - согласен с вами, только с тем замечанием, что режиссеры довольно быстро это все поняли и в фильмах которые изначально задуманы как стерео таких игр с фокусом как правило нет. Этим грешат в основном "конвертации в стерео", или фильмы которые хоть и были сняты "в 3D" но основные деньги зарабатывали в обычных кинотеатрах.
Если же говорить о панорамных видео, то там даже на камерах как правило нет возможности регулировать фокус, потому что для VR-фильма это ненужно (ну и потому, что это сильно увеличило бы габариты и стоимость).
Как я понимаю в шлемах фокусировка сделана "на бесконечность", чтобы мозг меньше спотыкался от того, что все предметы четкие. Т.е. смотреть в шлем, для глаз, подобно тому как смотреть вдаль. И неважно, на что в шлеме смотришь.
Поэтому я и написал про кино. Можно было то же время смотреть в шлеме фильмы (что интереснее чем упражнения), а "лечение" псевдоблизорукости было бы примерно таким же.
Хотя возможно тут и еще какой-то эффект срабатывает, не знаю. Я тоже думаю, что японские ученые не дураки :)
Погодите, но ведь в Quest 2 фокусное расстояние всегда одинаковое, независимо от расстояния до виртуального объекта.
Т.е. мозг обманывался, пытался наводиться на удаленный объект, но по факту не наводился (иначе картинка бы стала мутной), и это как-то положительно влияло на зрение?
Что-то мне кажется, смотреть кино в шлеме было бы столь же полезно))
Все зависит от слова "обозримом". Если обозримым является + пара месяцев к текущему моменту - то возражений нет. Собственно с этим тезисом в таком варианте никто не спорил. А если "обозримый" - это пару лет, или больше - то возникают ооочень большие сомнения по поводу изложенного.
Сравнивать токены по-любому странно. Даже если забыть о том, что уже есть модели с окном 2 млн токенов, куда роман влезет целиком. Вот как думаете, у Лева Николаевича в кратковременную память сколько токенов помещалось? Как у всех, +-7 фактов, т.е. пара сотен токенов? Или больше? А токены LLM это ведь "аналог" именно кратковременной памяти, а долговременная у них гораздо больше, туда сколько знаний из интернета влезает...
Суть в том, что обычный запрос к нейросети "напиши роман" - конечно не сработает (пока), ее не на это учили. Но вот если создать агента который будет долго работать над текстом (сколько лет писался Война и Мир?), постепенно дорабатывая текст, как сейчас условный codex работает с репозиторием? А периодические еще и дообучать собственную модель на этом самом тексте и сопутствующих размышлениях, чтобы "наработки" перегружать в постоянную память, делать их частью "картины мира"... Вот какой тогда нейросеть напишет роман?
Это все хорошо, в бесконечном вакууме. Но в реальном мире объем задач конечен.
Пример. Если раньше создание эскизного проекта экспозиции занимало 2-3 недели у трех спецов (дизайн, текст, идеи), то теперь я его делаю один за неделю. Соответственно 5/6 рабочего времени пошло на другие проекты. Мне это безусловно выгодно, цена на готовый проект особо не изменилась (пока). Но музеев больше не стало, и общий объем проектов на которые можно "переключиться" специалистам - тоже почти не вырос.
Вы пишите о росте одиночных стартапов x10. Ок. Согласен. А кто ими всеми будет пользоваться?
Я вот вижу обратный процесс, огромное число инструментов становятся просто ненужными. 7/10 работ которые раньше требовали использования специального софта (и знаний) теперь требуют один инструмент - ИИ, которого можно просто попросить и он сделает.
Это же и в других областях. Все больше пишут о том, что сокращается срок жизни небольших стартапов. Например, появление ИИ породило кучу компаний где применяли его для разных целей (ИИ-переводы, ИИ-презентации, ИИ-редакторы, ИИ-...), но сейчас, у больших игроков дошли руки и каждое их обновление убивает эти мелкие инструменты. Зачем мне отдельный редактор текстов, если у чатагпт есть канвас? Понятно сейчас можно много возражения привести, но тенденция явно обозначилась.
И похоже процесс этот гипер-экспоненциальный, потому что каждая часть работы улучшает и ускоряет все остальные части. Мы видим только самое начало, но размах впечатляет.
Если раньше типичный жизненный цикл успешного стартапа был "решаем узкую задачу, дальше или развиваемся в большую компанию, или продаемся большой компании, или просто много лет решаем эту узкую задачу лучше всех", то теперь все чаще "решаем узкую задачу, гигант рынка вносит эту функцию в свое мега-приложение, а мы тихо загибаемся".
Если под первое охотно давали денег, понимая, что слаженная команда все равно кому-то пригодится и если идея не совсем отстой то при своих точно останешься, да еще и шанс хорошо подняться есть. То вот второй вариант энтузиазма у инвесторов не вызывает.
Опять же, я не говорю, что все уже так, я именно о тенденциях.
И если экстраполировать, то все эти типы которых вы описываете - они замечательно вписываются в новый мир пока ИТ отрасль растет быстрее чем инструменты которые ее строят (в глобальном смысле). И вот вопрос - будет ли отрасль дальше расти быстрее?
Моя производительность выросла за пару лет раз в 5. А объем рынка труда насколько вырос?
Можно возразить "Мы на пороге глобальной цифровизации, рынок IT ждет невиданный рост". Может оно и так. А может каждый из нас просто надеется, что именно он войдет в тот самый 1% которые будут решать все эти проблемы с помощью ИИ (или под руководством ИИ), просто потому, что думать об остальных 99% как то невесело.
Если хранить фигуры то выборки видимых фигур и проверки доступных ходов будут куда затратнее, тем более, что у него фигуры могут не только в рамках своей доски перемещаться.
Так что, чем экономить несколько сотен мегабайт, куда выгоднее хранить данные в том виде в котором с ними удобно работать. Тем более если это его первый опыт в данном ЯП.
Если делать что-то подобное, то стоит автоматизировать и зарабатывание баллов (датчик подъема штанги и пр), чтобы ребенок действительно был хозяином ситуации (хоть и в ограниченной среде).
Естественно в такой системе была бы куча дыр, и это самое главное - за обход системы я бы не наказывал, а поощрял. Смог обойти - молодец, вот тебе +20 часов на игры, но я эту дыру закрою, и посмотрим как ты справишься теперь...
Вот в таком виде это бы правда могло сработать. улучшить отношения, увлечь IT и пр. Особенно если отец умный, и понимает какого уровня дыры сможет найти его ребенок, и заранее их предусматривает ;)
А смысл использования именно в ИИ?
Использовать эту память вместо RAM/VRAM не получится, с 5 млн цикла до отказа она и секунды не проработает. Т.е. только как быстрый ссд для хранения моделей, и за очень много денег.
Ну то есть здорово, конечно, но ИИ тут явно только для хайпа.
Вы меня простите, но эта фраза не производит впечатления взвешенного и разумного подхода к анализу тем связанных с ИИ.
Обычно столь категоричные предсказания (аж на десятилетия вперед), в этой области можно услышать или от людей крайне поверхностно знакомых с темой ИИ, или от тех кто делит мир на свое мнение и неправильное.
Утопия это. Человечество просто не так устроено. Это не единый организм который может выстроить свою стратегию поведения и ее придерживаться. Это многоагентная система и каждый агент руководствуется собственными желаниями и представлениями.
Мне может быть выгодно пойти и ограбить магазин (чтобы покушать не работая), но я не делаю потому, что сотрудникам милиции выгодно меня за это покарать (чтобы получить зарплату)... и так далее. И если эту цепочку раскручивать дальше - она никем не заканчивается, замыкаясь когда люди принимающие больше решений, зависят вновь от тех на кого их решения влияют (демократия или диктатура на этом клочке суши - неважно, я про масштаб всей планеты).
Т.е. человечество это замкнутая, сбалансированная система где каждый делает то что ему выгодно (не в плане денег, а вообще). И размышления в духе "вот если бы все вместе взяли и стали делать вот так" - означает, что вы хотите эту систему разбалансировать. Т.е. в ней должны возникнуть ситуации когда отдельному конкретному человеку выгодно действовать так, а он действуют иначе.
Выход - придумать новую замкнутую, сбалансированную систему учитывающую поведение каждого человека на планете так чтобы они все действовали так как им выгодно но общее развитие шло туда куда вам нужно. Эта задача сама по себе мягко говоря сложная. Но еще сложнее что перейти со старой системы на новую нужно тоже "выгодным" путем, а это значит что в какой-то момент должна быть развилка где есть два совершенно одинаковых пути, а человечество должно дружно пойти по нужному вам. Статистически это невероятно.
Второй вариант - мягко куда-то толкать, надеясь что оно все сдвинется туда куда вам хочется. Для этого есть идеология или ее частный случай - религия. Только вот инструмент мягко говоря сложный и капризный, куда что выльется - предсказать шансов мало.
А в вашем случае шансов вообще нет, потому что нужно конкретно так поменять установки и желания у такого числа людей, да еще по ключевым для них вопросам, что тут пришествием пророка не обойтись, минимум высадка инопланетного флота понадобится.