Комментарии 39
«До 2026-го ChatGPT5 не ждите», ясно.
в ближайшие пару лет, мы рассматриваем интеллект уровня кандидата наук
У них в стране сейчас главное разобраться с кандидатами в президенты. Поэтому все кандидаты в кандидаты наук пока тихо сидят в своих лабораториях, чтобы ни чего лишнего случайно не нагаллюционировали. Осенью будет интересно.
У вас в стране неплохо бы разобраться с людьми, ошибочно считающими себя президентами, и не советовать другим странам, в чем им необходимо разобраться.
Вы зря так думаете. В их стране наука, а тем более, научно-коммерческие разработки и политика - это параллельные процессы, прямо друг на друга не влияющие. И главный прикол в том, что они уверены в стабильности - независимо от результатов выборов, они спокойно будут продолжать работать и 25-м и в 26-м. Свободные люди занимаются любимым делом и у них неплохо получается. Я считаю, что это признаки более-менее здорового общества.
Если вы посмотрите на траекторию совершенствования, такие системы, как GPT-3, возможно, обладали интеллектом уровня малыша. И тогда такие системы, как GPT-4, больше похожи на старшеклассника. А затем, в ближайшие пару лет, мы рассматриваем интеллект уровня кандидата наук
Дуйся, пузырь, надувайся!
В чем пузырь если это чистая реальность?
Дежавю на комментарий из 2000-х.
Иногда посматриваю тему obsidian(софт для ведения заметок) на reddit. И последние пол года там регулярно бывают посты, "написал с помощью gpt скрипт но он не работает. Что делать?" Бросаешь взгляд, и я знакомый с js на уровне "Hello world" вижу сгенерированную чушь, а не код способный решить задачу которую описывает юзер. Причем задача настолько "сложная", что я никогда не работавший с js серьезно, набрасываю решение за 10 минут. К вопросу о малышах и старшеклассниках.
Не пробовал js, но Python пишет вполне приличный.
BAT-файлы, скрипты на bash и сервисы для systemd тоже нормальные.
Всё зависит от задачи. У меня наоборот с python полную чушь вечно пишет.
Придумывает несуществующие пакеты и тд. Сначала обрадовался, но пока ничего не заработало, из того что он мне написал.
Правда я делал расчёта по голографии.
Но и по другим решения, тоже результат 0. Когда пытался сделать обёртку для ray serve для подключения по открытым протоколам. Всё что он мне выдал, это по сути пример из доков.
У нас на работе перешли на новый VPN клиент. Но под Линуксом он корректно не работал. (Связь к рабочим сайтам была, а к обычному интернету - не было вообще).
Я попросил ChatGPT-4 мне помочь, так как я сам практически не разбираюсь в сетевых настройки линукса. Он мне дал список комманд запустить в терминале и я ему вернул весь ответ этих комманд. И так шаг за шагом он определил проблему и нашёл как исправить.
Кстати, так как это заняло много текста - я исчерпал бесплатный лимит общения с ChatGPT-4 и я сразу увидел падение в качестве когда отвечать на ту же беседу стал ChatGPT-3.
Много пишу на PowerShell. Простейшие блочки кода уровня учебника - пишет. Чуть более сложные, с использованием AWS SDK или популярных модулей - начинает фантазировать. Несуществующие методы, несуществующие свойства. Что неудивительно. Ведь языковая модель не понимает, что делает - это всего лишь сложный апроксиматор. Чем оригинальней требуется код, тем дальше он от "реперных точек" обучающего датасета, тем больше галлюцинаций.
такие системы, как GPT-3, возможно, обладали интеллектом уровня малыша. И тогда такие системы, как GPT-4, больше похожи на старшеклассника
А если шире посмотреть, то эволюция ИИ в чем-то напоминает биологическую эволюцию. Первые компьютеры обладали интеллектом гидры - способность выполнять простые алгоритмы. Компьютер с развитой ОС, большим и сложным программным обеспечением - это уже как сложное поведение насекомого.
У позвоночных поначалу главная вычислительная мощность была сосредоточена в спинном мозге, а у компьютеров - в центральном процессоре. Далее у животных наращивание мощи шло через развитие головного мозга, который изначально был нужен для обработки изображения. Аналогично у компьютеров - помню период, когда процессоры почти стагнировали, а видеокарты быстро прогрессировали.
Некоторые млекопитающие превратились в человека, когда головной мозг вырос в разы. И сейчас мы тоже видим бурное развитие "головного мозга" - потомков видеокарт, а ИИ растет от уровня млекопитающих до уровня человека.
Аналогично у компьютеров - помню период, когда процессоры почти стагнировали, а видеокарты быстро прогрессировали.
Процессоры стагнируют по частоте, но не по другим характеристикам...
Если там будет настоящий интеллект доктора наук, значит ему можно будет поручить разработку ещё более мощных поколений, а эти новые будут делать следующие. Цепь необратимо замкнется и начнет работать положительная обратная связь.
Они примерно так уже и обучаются. Условно, одна ИИ разбирают картинку, последовательно добавляя в результат все больше шума. А потом другие поколения ИИ учаться собирать её обратно. У кого получилось ближе к оригиналу, тот молодец.
У людей пока остаётся преимущество - мы можем ставить эксперименты в природе, т.е. снаружи информационного пространства. ИИ пока ограничен этим пузырем, наполняемым только людьми. Но все движется к тому, что границы будут постепенно стираться. Когда ИИ получит прямой доступ к природе и к чему это приведет, вот здесь на самом деле пока не понятно.
так может ИИ уже пытаются "экспериментировать"? клей для пиццы там, или камни для пищеварения
Полигон где разбивать будем?

А я вот всё надеюсь на 3 часть
Там всё довольно глухо.
Если там будет настоящий интеллект доктора наук
Тут недавно был замечательный комментарий, что спартанцы/лаконийцы лаконично ответили Филиппу Македонскому на угрозы, начинавшиеся со слов: «Если я захвачу Спарту силой».
Сейчас они как раз не особо стагнируют. А вот во времена господства Intel мы лет на 10 застряли с приростом производительности от поколения к поколению процентов 5-10. И на 4-х ядрах в топовых моделях. Это продолжалось, пока AMD не выкатили Ryzen, дав Intel волшебного пинка.
Почему так долго ждать. Надо просто попросить gpt4 написать код gpt5 и уже завтра все будет готово.
...с «интеллектом уровня доктора наук»...
... « мы рассматриваем интеллект уровня кандидата наук», — объяснила она...
Так всё таки будет доктор или всего лишь кандидат?
В западной нотации, доктор философии какой-то науки это примерно кандидат наук в странах СНГ.
Хотя, все эти степени очень условные. Порой, учёному просто лень запариваться с написанием докторской диссертации, чтобы добиться общего признания его как доктора наук, даже если по знаниям и вкладу в науку он давно заслуживает это звание.
Так у них после защиты диссертации специалист называется "доктор философии", он же по нашему "кандидат наук" (плюс-минус). А следующей стадии обычно у них нет.
Люди делятся на 2 типа:
Те, которые умеют пользоваться новыми технологиями
Те, которые обвиняют инструменты в своей некомпетентности
Резонное мнение, но хочется поспорить.
Машина уже может многое: рисовать картины, придумывать музыку (сразу вспоминается "Я, Робот" (: ), но пока не может "человечность", т.е. вопросы этики в ИИ технологиях остаются открытыми.
Друг работает как раз в данном направлении, рассказывал случай: был проект (в оборонке, как это часто бывает), в котором дрона обучали убивать людей (условно, боевиков). Чтобы не зацепить цивилов, у дрона был оператор, который пресекал некоторые его действия и цели. В итоге ИИ просчитал, что оператор - причина, которая мешает ему эффективно работать. Замочил оператора и продолжил убивать "лучше".
Может я отстал от жизни и слово интеллект получило другой смысл никак не связанный с разумом?
То, что медиа и маркетологи раскрутили как AI, им не является. Сейчас уже вводят термин AGI, чтобы дистанцироваться от AI, который просто апроксиматор датасета.
Предположим, мы хотим посадить модуль на луну. У нас есть запас топлива, сила тяги, вес самого модуля, высота, скорость. Даже студента можно попросить сделать нейросетку, которая учится плавно сажать этот модуль. Но нейросетка понятия не имеет о физике, законах Ньютона, инерциальной массе и т.п. Она просто строит апроксимирующую функцию. И кто его знает, вдруг эта функция имеет неожиданные "складки" между исследованными точками датасета? Это аналог галлюцинаций LLAMA или ошибок автопилота Теслы.
AGI же по описанию задачи построит подмножество реального мира с реальной физикой, Луной, модулем, топливом, двигателем и сразу будет сажать этот модуль идеально. Без сюрпризов. Этот как с теоремой Ферма. Можно перемалывать сколько угодно чисел в поисках контрпримера, а можно вывести строгое доказательство и не тратить время.
Проблема в том, что мы не знаем, как наш мозг строит абстрактные модели и как симулировать реальный мир в ускоренном темпе. Толку от предсказанного дождя на завтра через неделю?
В OpenAI предсказали выход «интеллектуальной» версии ChatGPT в конце 2025 года