Как стать автором
Обновить

Комментарии 30

Так это как раз нормально, это академические задачи, требующие владения предметом. Я в типичном IT со своими 15 годами опыта нормально могу решать задачи хорошо если 10% работников и это у меня ещё стэк разработки максимально популярный. От всего квалифицированного труда это наверное 0.1% будет.

Пугает другое, БЯМ очень плохо оценивают границы своей применимости. Человек то обычно понимает границы своей компетентности.

ой не говорите про понимание границ своей компетентности людьми...

вам видимо очень повезло с кругом общения

Медицину забыли.

А сейчас еще в искусственном интеллекте. Каждый второй точно знает что, как и почему, куда движется и другие детали, которые даже настоящим экспертам и ученым неведомы. Даннинг с Крюгером наверняка довольны.

Я считаю, надо в вузе студентам зачёты ставить за придумывание вопросов, на которые ИИ отвечает неправильно. Просто как показатель владения предметом.

Задай чат гпт два вопроса, потом дай ему кусок текста и он забудет то что было в предыдущем сообщении, даже если это одна тема.

Можно даже кучу файла загрузить в качестве контекста. Давно уже. Не просто прикрепить к сообщению, а добавить в контекст заранее, и добавить набор инструкций как именно обрабатывать вопросы, какие приоритеты, вплоть до манеры общения. Правда с контекстом только 4о работает. Подписка обычная, за 20 баксов.

90% остаются нерешенными неограниченно долго? Или всё таки через пару десятков тысяч итераций от нерешенных ранее 90% отстаются нерешенными новые 90%? По идее, если через очень много подходов машина решит 90% задач. Просто не надо торопиться с выводами, подумать дайте.

А как ты им дашь подумать? Предположительно, o3 это может и то не факт. Остальные не могут думать дольше. А просто 10 тысяч раз одно и то же спрашивать и выбирать правильный ответ - это не решение. В реальной жизни ответ не известен, иначе не спрашивали бы, поэтому выбрать из 10 тысяч запусков не получится.

В этом и есть загвоздка. Сетки хорошо натасканы на "2+2=4", но имеют проблемы именно с новыми задачами. То есть стек решенных вопросов, на которых их учат, дает хороший результат. Еще хороший результат дают по выявлению закономерностей там, где человек их не разглядел (умный эксель эдакий).

Есть большой вопрос, может ли нейронка открыть что-то новое (не на основании перебора комбинаций (это могут и суперкомпьютеры), а концептуально)? Я пока что очень сомневаюсь, что мы до этого доживём.

Да это неправда. Я общался с ии, он на ходу придумал интеллектуальную автократию - общество, в котором право выбора и участия в политике зависит от ума, прочитанных книг и тд. Выписал все особенности, принципы, законы.

ИИ отлично фонтанируют новыми идеями.

Я считаю себя умным человеком, но не могу открыть что-то концептуально новое, хотя очень хочу (

Ну, вы же не единственный умный человек, и не факт, что другие умные люди не могут открыть что-то концептуально новое. А из истории мы знаем, что люди могут и открывают. А нейронки я что-то пока не увидел, что могут.

Некоторые из ведущих мировых ученых в computer science считают большие языковые модели тупиковой ветвью развития ИИ.

Ян Лекун призвал разработчиков не тратить время на БЯМ

https://hightech.plus/2024/05/24/yan-lekun-prizval-razrabotchikov-ne-tratit-vremya-na-byam

Да и даже если не будут, всё равно БЯМ имеют огромное число применений, а их сейчас будут интегрировать куда только можно

Демис Хассабис говорил, что LLM станут одной из ключевых составляющих AGI уже более года назад.

Я много его интервью смотрел. Помню, что это был подкаст. Без видео.

В качестве ученного, нобелевский лауреат Джеффри Хинтон подходит?

Он об этом говорит практически в каждом своем интервью.

Хинтон считает, что LLM станут основой AGI.

Лекун считает, что LLM никак не помогут в создании AGI.

Третья точки зрения, что LLM в основу AGI не лягут, но как-то там будут использоваться никто не высказывал.

Давайте определим что мы называем LLM. Демис Хассабис сейчас любит уточнять, что речь уже не о LLM, а об VLM. (Visual Language Models)

Почитайте, как François Chollet разнесло после того как он увидел o3. В его Твиттере.

На данном этапе не понимаю о чем мы спорим, и спорим ли :)

Этот тест станет неактуальным максимум в 2026 году, а скорее всего, уже в этом. В 2027 году сотни миллионов людей, работающих головой, будут заменены ИИ. Осознание этого начнётся в течение 0,5–4 месяцев и будет усиливаться каждые 6–10 месяцев. На данный момент такое понимание есть лишь у примерно полумиллиона человек – это всего лишь 0,0083% всех людей на планете старше 18 лет.

Пруф можно будет предоставить только постфактум. Почему я в этом уверен на 99.99%. 1. С этим мнением согласны абсолютное большинство ИИ экспертов. Включая Демисса Хассабиса и вообще все кто из области. Есть только три серьезных ученных , которые говорят о более длинных сроках François Chollet, Ян Лекун, Andrew Ng. После демонстрации o3, первые очень сильно изменили свое мнение. Ян Лекун с десятилетий начал говорить о 5-6 годах.

2. Посмотрите на прогресс за неполных 25 месяцев. От GPT 3.5 до o3. То есть с 30 ноября 2022 до 20 декабря 2024. Это правда анонс, так что можете считать что больше времени.

3. Понятно, что нужно еще несколько прорывов, чтобы это случилось.

4. В отрасли дикая конкуренция. И Маск и Эрик Шмидт (бывший гендиректор Google) и наверняка другие, говорят что за всю свою карьеру в мире технологий- никогда не видели такой скорости прогресса. Маск еще сказал, что никогда ни видел таких «войн за таланты»

5. Всем понятно одно, что какая бы архитектура или ее модификация не использовалась бы понятно одно, что она потребует громадного количества AI compute, ИИ вычислений.

6. Проект The Stargate Project- 500 миллиардов в один проект для построения AGI/ASI. То-есть большая часть пойдет именно на железо. Там вопрос с деньгами. Понятно, что ест порядка 100 миллиардов, но наличие Ларри Эллисона, говорит о том что остальные 400 миллиардов найдут за 4 года. Но это по идее уже для ASI.

Китайцы, кстати на днях выделили 1 млрд юаней (137 миллиардов долларов) в течении 5 лет как ответ на Stargate Project.

По идее надо ожидать от других IT гигантов ответные реакции на проект Startgate.

Почему я говорю о 2027 годе как о начале массовой безработицы работников умственного труда. В 2025 году строят эти громадные датацетры. В 2026 году тренирует эти гигантские системы (следующее поколение o и GPT, которые вероятно сольются в одну архитектуру в 2026, но не суть). За эти два года Ии агенты станут достаточно умными, чтобы многое выполнять и соображать на ходу. То есть люди конечно останутся, но в 2027 уже миллионы будут заменены ИИ. И с каждым годом их число будет увеличиваться.

Каждый примет этот факт, когда щелкнет конкретно у него или у человека, которому он доверяет. Можно будет проверять этот комментарий на разных этапах 2027 года и сравнивать. Понятно, что для кого-то это будет 2028, для кого 2029, и тд. Я говорю о начале «нового социального контракта»

Прошу прощения за возможные грамматические ошибки. Очень ограничен в данных момент.

В начале об ИИ ученных, ИИ эксперты согласны, что до 2030 будет достигнут AGI. Но для замены миллионов работников умственного труда настоящий AGI ( умственные способности человека или более того) - не нужен.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий