Так на самом деле это проблема многих подобных статей, десятки их если не сотни можно найти.
Посыл общий «нейросеть не умеет то-то» и потом разбирают это на примере какой-то модели или нескольких. Зачастую не самых последних или не самых «топовых». А по факту давно уже умеют.
Так что обычно это все же речь не про ограничения даже текущих «ии» или архитектуры. А скорее про ограничения конкретных моделей в конкретное время.
Но проверить же зачастую проще. (Не всегда) то есть например иногда смотришь репозиторий какой-нибудь (сложной системы, или отдельные компоненты). Вполне понятно что там написано, как оно работает и что это то что нужно. Но написать такое (тем более за разумное время) уже сложнее или вообще может не хватить опыта.
Или ситуация есть задача, ну не помнишь какой алгоритм применить или вообще не знаешь. «Погуглил» (раньше) или теперь попросил «ии», нашел решение дальше или сам реализовал или еще как. Но понять что решение работает и проверить его никакой сложности не составляет. (Точнее сильно проще чем…)
Так какая проблема оценивать не взирая на то ии или не ии. Как вы понимаете сделать что-то годное с ии тоже надо постараться. А иначе как вы сами говорите «повторяется и тд» и судьи такое не выберут.
Мне вот лично без разницы кто «приготовил кофе» робот или бариста (прилагая неимоверные усилия) если результат одинаков. А если бариста приготовит плохой кофе то я его так же не выберу только за то что он «прилагал усилия».
Это уже некая «элитарность» когда кто-то будет выбирать «сделано человеком» (дополнительно за это платя больше). Думаю в относительно ближайшем будущем нас ждет много подобного
С одной стороны да. С другой альтману то надо чтоб к нему очередь с исками не стояла. А правообладатели до последнего будут защищать свои деньги. Борьба будет долгой
«Универсальность», то есть если «смогем» и робот сможет делать большинство того что сможет сделать человек то не надо будет клепать узкоспециализированного робота под каждую задачу, отсюда вытекает взаимозаменяемость.
возможность использовать инфраструктуру уже созданную для людей.
Плюс думаю сложность, то есть если решат эту задачу то обучать роботов под отдельные задачи вообще не будет проблемой.
Соответственно для тех задач где совсем человекоподобный робот не подходит делать уже отдельно.
) так логично. И люди ошибаются. Вопрос лишь как настроить проверки. То есть если сделать что-то вроде «нужен ответ с источниками, проверяй в гугле и тд» то уже не выдаст такое
Так сами нейронки зачастую могут сами проверить данные, просто сейчас по-моему ради экономии ресурсов и прочих ограничений стали выдавать галлюцинации или неверные ответы (первым ответом) намного чаще чем предыдущие модели. Даже в тех сценариях где раньше все было нормально. А если дать модели «нормально» подумать.
Да фактически мы имеем проблему галлюцинаций просто как особенность текущих архитектур, но и бороться с ними не сказать что бы технически сложно. (Общем случае, сложности идут когда начинают бороться за каждый процент снижения)
А почему это не делают «для масс» - вопрос другой. (Экономия и проч)
История показывает что «впарить» можно и воздух. Любая технология современная частично состоит из практической пользы и частично из хайпа. Да и сколько вложат неизвестно фактически. Будет расти практическая применимость будут вкладывать больше. Не будет а хайп поутихнет будут вкладывать меньше.
есть мнение что он оказался тупее не в силу каких-то ограничений концептуальных. А ограничений искусственных. Когда модели накрутили всякой логики что это говорить нельзя, этого обидеть нельзя, а еще выявить тех у кого психологические проблемы, и прочее. В итоге это привело к среднему ухудшению ответов в целом
Код не первичен и не является основным источником знаний. Главное что если сервис/идея востребованы то уже он переписывается на возможно даже другом стеке/яп/микроспрвисах с учетом новых требований по масштабированию и проч. Чтобы «прототипы» развивались во что-то большее, это далеко не все случаи. Я бы даже сказал что на моей практике все-таки 2-3 из 10 переписывались с 0
До вайб-кодинга кончено не не существовало ситуаций: «делаем прототип на коленке, по выходным или силами друга программиста за пиво, а если «попрет» то уже сделаем нормально»
Просто сейчас это стало еще проще в какой-то мере.
Даже почти 2 лет назад когда учился. Уже фотографировали, делали записи. А некоторые преподы сами видео записывали. Какой смысл вообще в записывании лекции? Что руками что в ноутбук? Максимум выделяешь какие-то тезисы и общие моменты. Остальное запоминаешь. При необходимости обращаешься к первоисточнику.
Естественно бывают частные случаи и дисциплины где можно использовать комбинированный подход. Но в общем случае смысла в ручном конспектировании никакого
Так на самом деле это проблема многих подобных статей, десятки их если не сотни можно найти.
Посыл общий «нейросеть не умеет то-то» и потом разбирают это на примере какой-то модели или нескольких. Зачастую не самых последних или не самых «топовых». А по факту давно уже умеют.
Так что обычно это все же речь не про ограничения даже текущих «ии» или архитектуры. А скорее про ограничения конкретных моделей в конкретное время.
Переплавим планету на чипы!
Но проверить же зачастую проще. (Не всегда) то есть например иногда смотришь репозиторий какой-нибудь (сложной системы, или отдельные компоненты). Вполне понятно что там написано, как оно работает и что это то что нужно. Но написать такое (тем более за разумное время) уже сложнее или вообще может не хватить опыта.
Или ситуация есть задача, ну не помнишь какой алгоритм применить или вообще не знаешь. «Погуглил» (раньше) или теперь попросил «ии», нашел решение дальше или сам реализовал или еще как. Но понять что решение работает и проверить его никакой сложности не составляет. (Точнее сильно проще чем…)
Так какая проблема оценивать не взирая на то ии или не ии. Как вы понимаете сделать что-то годное с ии тоже надо постараться. А иначе как вы сами говорите «повторяется и тд» и судьи такое не выберут.
Мне вот лично без разницы кто «приготовил кофе» робот или бариста (прилагая неимоверные усилия) если результат одинаков. А если бариста приготовит плохой кофе то я его так же не выберу только за то что он «прилагал усилия».
Это уже некая «элитарность» когда кто-то будет выбирать «сделано человеком» (дополнительно за это платя больше). Думаю в относительно ближайшем будущем нас ждет много подобного
С одной стороны да. С другой альтману то надо чтоб к нему очередь с исками не стояла. А правообладатели до последнего будут защищать свои деньги. Борьба будет долгой
Но в шахматы до сих пор соревнуются. Автор немного не прав в другом. Точнее даже сам себе противоречит.
>>Этого же хочет в принципе любой участник рынка - качественного продукта.
А потом начинаются рассуждения. По факту действительно хочется качественного продукта, а вот кем он сделан уже без разницы должно быть.
Та же история с конкурсами. Если в конкурсе победит вдруг «ИИ» то значит не так он и плох. а если плох то не победит и проблемы нет.
А что началось дальше? Кроме роста цен. Только цены на все растут..
«Универсальность», то есть если «смогем» и робот сможет делать большинство того что сможет сделать человек то не надо будет клепать узкоспециализированного робота под каждую задачу, отсюда вытекает взаимозаменяемость.
возможность использовать инфраструктуру уже созданную для людей.
Плюс думаю сложность, то есть если решат эту задачу то обучать роботов под отдельные задачи вообще не будет проблемой.
Соответственно для тех задач где совсем человекоподобный робот не подходит делать уже отдельно.
) так логично. И люди ошибаются. Вопрос лишь как настроить проверки. То есть если сделать что-то вроде «нужен ответ с источниками, проверяй в гугле и тд» то уже не выдаст такое
Так сами нейронки зачастую могут сами проверить данные, просто сейчас по-моему ради экономии ресурсов и прочих ограничений стали выдавать галлюцинации или неверные ответы (первым ответом) намного чаще чем предыдущие модели. Даже в тех сценариях где раньше все было нормально. А если дать модели «нормально» подумать.
Да фактически мы имеем проблему галлюцинаций просто как особенность текущих архитектур, но и бороться с ними не сказать что бы технически сложно. (Общем случае, сложности идут когда начинают бороться за каждый процент снижения)
А почему это не делают «для масс» - вопрос другой. (Экономия и проч)
История показывает что «впарить» можно и воздух. Любая технология современная частично состоит из практической пользы и частично из хайпа. Да и сколько вложат неизвестно фактически. Будет расти практическая применимость будут вкладывать больше. Не будет а хайп поутихнет будут вкладывать меньше.
7 вложат, 20 заработают. Какие еще «задачи»
>>gpt5 оказался тупее
есть мнение что он оказался тупее не в силу каких-то ограничений концептуальных. А ограничений искусственных. Когда модели накрутили всякой логики что это говорить нельзя, этого обидеть нельзя, а еще выявить тех у кого психологические проблемы, и прочее. В итоге это привело к среднему ухудшению ответов в целом
Через 10-20 лет нейронки уже и сеньеров заменят )
Код не первичен и не является основным источником знаний. Главное что если сервис/идея востребованы то уже он переписывается на возможно даже другом стеке/яп/микроспрвисах с учетом новых требований по масштабированию и проч. Чтобы «прототипы» развивались во что-то большее, это далеко не все случаи. Я бы даже сказал что на моей практике все-таки 2-3 из 10 переписывались с 0
>>Вы пробовали когда-нибудь перестраивать старую дачу?
До вайб-кодинга кончено не не существовало ситуаций: «делаем прототип на коленке, по выходным или силами друга программиста за пиво, а если «попрет» то уже сделаем нормально»
Просто сейчас это стало еще проще в какой-то мере.
Компаниям, как утверждают многие, интересны прибыли. А кто больше принесен люди или «ии» узнаем со временем
Выше уже написали, Попросите ребенка извлечь квадратный корень из 15129, а потом калькулятор. Сделайте выводы
Даже почти 2 лет назад когда учился. Уже фотографировали, делали записи. А некоторые преподы сами видео записывали. Какой смысл вообще в записывании лекции? Что руками что в ноутбук? Максимум выделяешь какие-то тезисы и общие моменты. Остальное запоминаешь. При необходимости обращаешься к первоисточнику.
Естественно бывают частные случаи и дисциплины где можно использовать комбинированный подход. Но в общем случае смысла в ручном конспектировании никакого
Тут скорее интересно будет «придумать такую задачу которую решат люди но не решит ИИ»