Pull to refresh
18
0.7
Ingref @Ingref

User

Send message

А кто-нибудь пробовал этот Daredevil abliterated? Насколько этот метод его реально расцензурировал? Жаль, что в статье об этом не упомянуто.

Это уже выходит за пределы технического аспекта, который был поднят в исходном комментарии. Морально-философский аспект сейчас изучает, например, Павел Дуров во Франции.

Вот ответьте с технической точки зрения. Вам, как технарю, прилетает задача - блокнуть одну страницу на одном сайте. Как вы планируете её осуществить? Человек вам именно об этом коммент написал. Задача эта называется "атака на HTTPS", и выполнить её крайне сложно.

Это не имеет значение. Он не Исаак Ньютон, не Билл Гейтс и т.д.

Ну послушайте Билла Гейтса, если он вам больше нравится :)

Wat?Одно из другого никак не следует.

Это такое же намеренное упрощение, как и в первом случае. Доведение до абсурда.

Вау. Потеряли контекст прям как llm, косплей 10 из 10.

Контекст, то какой был?

Колумб открыл Америку, потому что у него был багаж знаний о мореходстве, он знал, что Земля круглая. Вот если сейчас кто-нибудь поплывёт в сторону Америки и скажет, что так в Индию будет короче, то его засмеют (как сейчас смеются над LLM). А Колумб тогда не знал того, что знаем мы, поэтому для него это было нормальным. Это для современного человека такой поступок был бы нелогичным, и его бы обвинили в том, что он не умеет рассуждать.

Т.е. у нас есть знания и делаем открытия опираясь на эти знания.

Вот именно.

Я, когда мелкий был, впечатлился, читая энциклопедию по химии, сколько всего открыли случайно.И сейчас привел парочку таких примеров.

Вот только открытия эти были сделаны не пещерными людьми, а позже. Потому что пещерные люди обладали меньшим багажом знаний. Алхимики тоже вон пытались свинец превратить в золото, но получилось это только в 20-м веке, когда разобрались с ядерными реакциями.

Это звучит как экстраполяция.

Не как экстраполяция звучит примерно следующие: точность ответов на датасете GSM8K за N лет повысилась на X%, с Y% до Z%.

Возможно, я не совсем точно выразился. Суть в том, что модели с маленьким или некачественным датасетом больше промахиваются. Работа над обучением постепенно устраняет те проблемы, о которых они пишут. Но они почему-то решили, что вся концепция - курам на смех, и надо придумывать что-то кардинально другое.

В статье этого нет.

Может быть, я неверно интерпретировал их посыл.

При всём уважении, в переводе сказано (даже отдельно процитировано) а - у существующих LLM есть критические проблемы в рассуждениях, б - требуются дополнительные исследования для того чтобы создать модели лишённые этих недостатков. Как вы из этого сделали вывод что в исследовании говорится "LLM никогда не смогут рассуждать" - загадка.

Они изучали LLM на основе трансформеров и сделали вывод о том, что такие LLM не могут и не смогут рассуждать. И что нужно создавать модели на основе чего-нибудь другого, чтобы устранить эту проблему. Или они всё же дают шанс трансформерам? Я такого там не увидел.

Смотрю на график. Вижу, например, что у gemma2-2b-it качество падает на 31.8 а у gemma2-9b-it уже на 63. А между ними gemma2-27b-it. Вы утверждаете что у gemma2-2b-it больше информации о мире чем у gemma2-9b-it?

Это интересные артефакты. Любопытно также, что Gemma-7b-it (это Gemma версии 1) показала снижение качества почти что на уровне о1-preview, в то время как Gemma2-9b-it (а это уже Gemma версии 2) показала себя в 3 раза хуже (где-то в хвосте). Не исключено, что это может быть связано с уровнем цензурирования, например. Или с тем, какая доля в "информации о мире" для конкретной модели состоит именно в математической информации. Но и без этого графика и так известно, что более старые версии ChatGPT хуже справлялись с решением школьных задач, чем более новые.

Потому что, они не знают, что все в итоге сводится к тому, что такое сознание и интеллект. А это в свою очередь сводиться к голой вере.

Это не мешает авторам статьи делать утверждение о том, что LLM никогда не смогут рассуждать. Это их полное право - делать утверждения. Выдвигать гипотезы. Они выдвинули свою, а их оппоненты (к которым отношусь я) - свою. Если у вас есть какая-то третья гипотеза, вы тоже имеете полное право её озвучить.

Да, да. Экстраполируем правильно.Самолет братьев Райт летел 48км/ч, Fokker D.VII 200 км/ч, И-16 362 км/ч, МиГ-3 640 км/ч, МиГ-15 1042 км/ч, СУ-30 2125 км/ч.Отсюда делаем вывод.Кто не верит, что самолеты будут вскоре летать 100500 км/ч, тот регидный дурак и не лечится.

Я ничего такого не прогнозировал. Я сделал вывод ровно о том, что изображено на графике - у моделей, имеющих больше информации о мире, ошибок меньше. Только и всего.

Колумб открыл Америку, потому что знал, что там она расположена.Искали сахарозаменитель, открыли сахарин.

Чтобы сделать подобные открытия, нужны были знания. Иначе Колумб бы не смог даже в море выйти. А для экспериментов в области химии очень полезны знания по химии. Поэтому те открытия, которые сделали, например, в 20-м веке, не были сделаны в античные времена - знаний не хватало.

Ай-ай-ай. Взрослые люди, а по прежнему придумывают обзывалки.А что делать? Когда не можешь раскидать оппонентов по фактом и логике?Только обзываться и остается.

Он-то как раз и продолжил логическую цепочку своих оппонентов. Если LLM - это просто предсказатель токенов, то мозг - это просто пучок нейронов и синапсов.

Да, не просто. Это же заинтересованный хрен с горы.Конечно он скажет, то что он говорит.Иначе ему денег никто не даст.Придется идти работать в макдак, чтобы прокормить себя.А он может не хочет идти туда работать? А?

Он не работает в OpenAI. Он выполнял для них проект по созданию математической модели. Ему уже давно эту работу оплатили, он на постоянке работает учёным в Техасском университете в Остине.

Поэтому да, опен аи сейчас пытается как можно скорее выжать из своего детища денег, ибо понимает, что надо менять саму концепцию, а это дорого, и невозможно.

Илья Суцкевер создал новую концепцию ещё в прошлом году. Вот только Илон Маск подал на OpenAI в суд, из-за чего новый алгоритм выкатят не раньше 2027 года. К тому же, нет алгоритмов контроля таких вещей, эти алгоритмы сейчас Суцкевер разрабатывает уже за пределами OpenAI в своей собственной компании. Скорее всего, через пару лет просто продаст готовую технологию той же самой OpenAI. А пока да, можно спокойно выжимать прибыль из существующих технологий, потому что конкуренты всё равно плетутся в хвосте.

Просто упрёк эппловцев в том, что LLM вообще в принципе никогда не станут так же разумны, как мы, потому что не могут в логику.

Люди тоже не просто так размышляют, они это делают под воздействием гормонов, жажды, голода, холода и т. д. Просто у LLM эти методы воздействия сведены к текстовой строке, вот и вся разница. Была даже статья от создателей Claude о том, как активация отдельных нейронов влияет на мышление нейросети.

Вот я как раз о том и говорю. Открытия делаются на основе знаний, а логическое рассуждение (как того требуют товарищи из Apple) тут совсем не обязательно. Если бы LLM придерживались строгих логических рассуждений, то никаких логических расстыковок у них бы не было. И вот почему-то людям разрешается от логики отклоняться, а LLM - нельзя.

Почему точно не может? Фильм как раз о том, что может. И робот не передёргивал его ни разу, он просто был любознательный. Он ещё у него спрашивал, что означает подмигивающий жест. Фильм сам по себе неплохо поставлен, если пересматривать спустя годы, то можно увидеть много того, что не увидилось 20 лет назад.

Буквально вчера смотрел разбор этой статьи на ютубе:

YouTube

Я абсолютно согласен с авторами в том, что LLM занимаются сложным сопоставлением шаблонов. Но я кардинально не согласен с выводами, которые они из этого утверждения делают. Они исходят из предположения, что истинная способность рассуждать - это что-то такое волшебное, божественное, типа как любовь. И что "сложное сопоставление шаблонов" не может быть такой способностью - это же слишком прозаично! Но если откинуть в сторону эмоции, то напрашивается совершенно противоположный вывод: сложное сопоставление шаблонов - это и есть рассуждение. А тот факт, что LLM ошибается на каких-то очевидных для нас мелочах, говорит лишь о том, что у неё не было достаточно информации для того, чтобы учитывать эти мелочи. Она делает выводы на основе той информации, которую ей скармливали. У неё нет других источников информации, в отличие от школьника, который помимо чтения задач из учебников ещё и целую жизнь живёт. Это единственное отличие.

Стоит дать LLM больше информации об окружающем мире, как все эти нестыковки начнут постепенно растворяться. Что и демонстрирует график из статьи:

И авторы начинают показывать пальцем и кричать:

Ага! Вот видите, они не могут рассуждать, как мы!

И потом добавляют:

Даже если они смогут рассуждать, как мы, то они всё равно будут тупыми железяками, потому что они просто занимаются сопоставлением шаблонов.

И мне сразу вспоминается вот это:

Я, робот

Вот хочется у них спросить:

  • а вы сами-то как рассуждаете?

  • вы не сопоставляете шаблоны?

  • вы не делаете предположений на основе того, что вы когда-то увидели \ услышали?

  • вы можете что-то сотворить из ничего?

Абсолютно все без исключения открытия в истории человечества были сделаны на основе имеющихся знаний. И это именно то, что делают LLM - делают предположения на основе информации, которая у них есть.

Вообще, все эти обвинения в сторону LLM о том, что они "просто предсказатели токенов" даже получили специальное название - just-a-ism (потому что LLM - это же "just a next token predictors"). Об этом явлении хорошо высказался Скотт Ааронсон (начиная с 20:33):

Про just-a-ism

Кстати, Скотт Ааронсон - это не просто хрен с горы. Именно он на протяжении полутора лет разрабатывал для OpenAI математическую модель, которая позволила бы держать ИИ в узде и не выйти из-под контроля. И у него есть весьма интересная статья в его блоге, где он, в частности, пишет:

Знаете, на протяжении десятилетий шахматы были вершиной человеческого стратегического чутья и исключительности. И так было до Deep Blue, сразу после чего, ну как же, само собой, ИИ может умыть Гарри Каспарова в шахматы, все об этом и так всегда знали, чего тут удивительного-то. Но Го - бесконечно более богатая, глубокая игра, и так было до выхода AlphaGo / AlphaZero, сразу после чего, само собой, ИИ может умыть Ли Седоля в Го, абсолютно ожидаемо, но разбудите меня, когда оно выиграет золото на Международной математической олимпиаде. Я поспорил на $100 с моим другом Эрни Дэвисом, что черёд ММО наступит к 2026 году. Но, допустим, я ошибаюсь, и вместо этого будет 2030 год... Отлично, какой должна быть следующая точка отсчёта?

Действительно, какой? У авторов статьи из Apple что-то не просматривается такого ответа. Не удивительно, ведь этой точки не существует.

А что нужно называть искусственным интеллектом?

Жаль, что он не опубликовал исходный текст письма. Было бы забавно, если в реальности девушка написала что-то в духе "мне нужно какое-то время подумать", а ИИ раскусил эту вежливость и написал как есть :)

Качаете https://github.com/FlowseaI/zapret-discord-youtube/releases/download/1.1.1/zapret-discord-youtube-1.1.1.zip и запускаете "discord_youtube.bat".

Ответы на частые вопросы можно посмотреть на странице репозитория - https://github.com/FlowseaI/zapret-discord-youtube

У меня заработало только это (QUIC в браузере должен быть включён) - https://ntc.party/t/если-опять-перестал-грузиться-youtube-или-его-видео/10529/935

1
23 ...

Information

Rating
1,731-st
Registered
Activity