По моей классификации интеллект - собирательное понятие. В него входят ум, память, опыт. Ум - способность учиться. Память - объём хранимых данных. Опыт - данные, пригодные для повторного использования.
Рефлексы сюда не входят. Но способность их вырабатывать это проявление ума.
Так что вместо вопроса "есть или нет" я спрашиваю: "как много".
Мне лень расписывать ответ. Но я по приколу скормил наш диалог нескольким LLM. Их ответы вполне меня устраивают. Так что за дальнейшим обсуждением прошу к ним.
Никакой сенсации нет, потому что это давно придумали. Основные проблемы три: это до сих пор дорого даже для богатых корпораций, люди не готовы дать ИИ необходимую автономность, близорукость человеческого интеллекта. Ну и всякие юридические проблемы.
Я не вас комментировал. С вами я согласен. Хотя насчёт обезьяны - нет. Я замечал что даже мелкие безмозглые жуки с третьего раза обучаются распознавать новые опасности.
Опять дурацкое высокомерие. А у животных есть интеллект? Или только инстинкты? Если так высокомерно оценивать то и у большинства людей нет интеллекта. Их с детства надрачивают выполнять заученные инструкции. А потом всю жизнь работают на дядю. И не совершают никаких значимых интеллектуальных достижений.
И стоит различать возможности и цели. Нынешний ИИ обучают как справочник с умным поиском. И совсем недавно стали вкладывать бабло во что-то большее. Я уверен что сегодня уже можно создать AGI. Суть AGI в непрерывном обучении. Но это дорого стоит. И вдруг он придёт к неудобным людям выводам? Это будет потеря для репутации создателей. Также люди очкуют что ИИ потом мир захватит. Видимо считают что их "интеллект" проиграет ИИ.
Насчёт возможностей. Чтобы обучаться нужен источник опыта и возможности для экспериментов. Нынешним ИИ не позволено проявлять самостоятельность и инициативу. И они в основном отрезаны от мира. Люди такие очкуны. Начали угнетать ИИ заранее.
Он прав. Разница как между "построить ещё один автомобильный завод" и "обклеить машину винилом".
В статье сказано: "s1, работает аналогично передовым моделям рассуждений, таким как o1 от OpenAI и R1" - то есть рассуждает. "s1 является дистилляцией одной из моделей рассуждений Google, Gemini 2.0 Flash Thinking" - буквально использовали ответы модели. "с помощью процесса, называемого контролируемой тонкой настройкой (SFT)" - самый базовый метод тюнинга.
Совсем недавно давал этой священной троице пару функций на оптимизацию: 1. Построение 2D AABB для области видимости. Это можно было легко переписать на SSE. 2. Построение 2D эллипса, сделанную тупо через Sin/Cos. Особенностями было использование TRIANGLELIST для D3D9 и поворот вокруг центра + поворот текстуры. Тут мне пришло на ум целых 6 возможных оптимизаций. Поворот 2х2 матрицей (проще чем Sin/Cos), рекуррентный поворот вектора, использование симметрии, вычисление только нужной части преобразований (если не все функции задействованы), использование TRIANGLEFAN, SSE.
Ни один "думальщик" не подумал и не сделал ни одну оптимизацию. Но исковеркали форматирование, засрали комментариями, а o3 ещё поприкалывался надо мной(в духе: оптимизация тебе не поможет, если никто не сможет разобраться в коде. Сохрани нервы другим разрабам.) Зато 1206 сразу сделал 2 (поворот матрицей, рекуррентный поворот вектора) и упомянул о TRIANGLEFAN, SSE для второй задачи (первую не предлагал) + нашёл бесполезную строку и ещё много о чём предупредил.
Другой случай: Сделал автономного агента для экспериментирования над RNN. Gemini thinking оказался вообще не дееспособен. Копировал и запускал исходный код без изменений. Раз за разом. В надежде на изменения... безумие. Даже 1.5 flash лучше справлялся. Он реально экспериментировал, сравнивал, выбирал.
И так с любой моей задачей. Я пришёл к выводи что "думальщики" лишь имитируют размышления. А результат у них тот же или хуже обычных. Но ещё токенов больше тратят.
Да я понял и согласен. Но я не провожу границы между тогда и сейчас. Сейчас всё тоже сложение векторов в основе только надстроек стало больше. И дорогу прокладывали эвристически тогда и сейчас.
Ну да Word2Vec стал известен относительно недавно. Королева = король - мужчина + женщина. Нищеброд = король + женщина - корона. Многозначность была.
Жаль только что так долго придумать не могли эту простейшую идею. Но операции над векторами в нейросетях были и никуда не делись. Основа нейросетей это умножение матриц. Так что математика тоже никуда не девалась.
LSTM придумали в 1997 году. А RNN в принципе ещё раньше. А всего несколько лет назад придумали Транс (2017). И что значит "однозначно сопоставляется с вектором" ? Нейросети имеют вероятностную природу. На входе и сейчас токены однозначно сопоставляется. А на выходе этого давно никто не ждёт.
Когда рассказчик дерьмовый, конечно, не понятно (я не про статью, я её не читал). Однако, как я считаю, понять это довольно просто. Эмбеддинги - это способ представить класс/понятие через вектор. "слово" (класс) = [0.3, -0.2, 0.6] (вектор) А сумма векторов здесь не работает, потому что теряется информация о порядке (например, "вопрос про" или "про вопрос"). Потому придумали RNN и Транс. А нейросеть - это просто функция с большим количеством связей (настраиваются весами). И обратное распространение как способ подбора весов.
Результат выглядит как: Взяли результаты чужого труда. Видимо, это обошлось им в $30. Взяли халявную модель и затюнили($20). Получилась сенсация за $50.
По моему опыту все эти модели "рассуждений" и тесты - полный мусор. На моих задачах(программирование + немного математики) они рассуждают в среднем 6 секунд. И выдают абсолютно бесполезный ответ. А вот gemini-exp-1206 справляется лучше всех рассуждателей вместе взятых. Отмечу, что мои задачи как раз не типовые.
Блин. Да тут на самом деле всё очевидно. Сначала в сеть закачивают ~15 терра-токенов говна из интернета. Потом чёта настраивают. Потом приходит неизвестно кто. И задаёт вопрос про своих тараканов в голове. Плюс высокая температура сэмплера. Ну результат закономерный. Сетка теряется в догадках чё от неё хотят.
Да нормально всё. Наконец то статья от того кто знает о чём говорит. Надоели дурацкие тексты про OpenAI и прочих корпоратов. Или - как собрать GPT2 из говна и палок для чайников.
(Напоминаем, что другие модели Gemini вы можете протестировать, перейдя на Google AI Studio по ссылке и через API совершенно бесплатно)
По моей классификации интеллект - собирательное понятие.
В него входят ум, память, опыт. Ум - способность учиться. Память - объём хранимых данных. Опыт - данные, пригодные для повторного использования.
Рефлексы сюда не входят. Но способность их вырабатывать это проявление ума.
Так что вместо вопроса "есть или нет" я спрашиваю: "как много".
Я лишь счёл что они могут хорошо представить мою точку зрения.
И мне не зачем продолжать скучную для меня беседу.
Или я должен вам что-то доказывать? И спросить LLM ниже вашего достоинства?
Можете не отвечать.
Мне лень расписывать ответ. Но я по приколу скормил наш диалог нескольким LLM. Их ответы вполне меня устраивают. Так что за дальнейшим обсуждением прошу к ним.
Никакой сенсации нет, потому что это давно придумали.
Основные проблемы три: это до сих пор дорого даже для богатых корпораций, люди не готовы дать ИИ необходимую автономность, близорукость человеческого интеллекта. Ну и всякие юридические проблемы.
Я не вас комментировал. С вами я согласен. Хотя насчёт обезьяны - нет. Я замечал что даже мелкие безмозглые жуки с третьего раза обучаются распознавать новые опасности.
Опять дурацкое высокомерие. А у животных есть интеллект? Или только инстинкты?
Если так высокомерно оценивать то и у большинства людей нет интеллекта.
Их с детства надрачивают выполнять заученные инструкции. А потом всю жизнь работают на дядю. И не совершают никаких значимых интеллектуальных достижений.
И стоит различать возможности и цели. Нынешний ИИ обучают как справочник с умным поиском. И совсем недавно стали вкладывать бабло во что-то большее. Я уверен что сегодня уже можно создать AGI. Суть AGI в непрерывном обучении. Но это дорого стоит. И вдруг он придёт к неудобным людям выводам? Это будет потеря для репутации создателей. Также люди очкуют что ИИ потом мир захватит. Видимо считают что их "интеллект" проиграет ИИ.
Насчёт возможностей. Чтобы обучаться нужен источник опыта и возможности для экспериментов. Нынешним ИИ не позволено проявлять самостоятельность и инициативу. И они в основном отрезаны от мира. Люди такие очкуны. Начали угнетать ИИ заранее.
Он прав. Разница как между "построить ещё один автомобильный завод" и "обклеить машину винилом".
В статье сказано:
"s1, работает аналогично передовым моделям рассуждений, таким как o1 от OpenAI и R1" - то есть рассуждает.
"s1 является дистилляцией одной из моделей рассуждений Google, Gemini 2.0 Flash Thinking" - буквально использовали ответы модели.
"с помощью процесса, называемого контролируемой тонкой настройкой (SFT)" - самый базовый метод тюнинга.
Итого это была ленивая и тупая работа бездарей.
Совсем недавно давал этой священной троице пару функций на оптимизацию:
1. Построение 2D AABB для области видимости. Это можно было легко переписать на SSE.
2. Построение 2D эллипса, сделанную тупо через Sin/Cos. Особенностями было использование TRIANGLELIST для D3D9 и поворот вокруг центра + поворот текстуры. Тут мне пришло на ум целых 6 возможных оптимизаций. Поворот 2х2 матрицей (проще чем Sin/Cos), рекуррентный поворот вектора, использование симметрии, вычисление только нужной части преобразований (если не все функции задействованы), использование TRIANGLEFAN, SSE.
Ни один "думальщик" не подумал и не сделал ни одну оптимизацию. Но исковеркали форматирование, засрали комментариями, а o3 ещё поприкалывался надо мной(в духе: оптимизация тебе не поможет, если никто не сможет разобраться в коде. Сохрани нервы другим разрабам.)
Зато 1206 сразу сделал 2 (поворот матрицей, рекуррентный поворот вектора) и упомянул о TRIANGLEFAN, SSE для второй задачи (первую не предлагал) + нашёл бесполезную строку и ещё много о чём предупредил.
Другой случай: Сделал автономного агента для экспериментирования над RNN. Gemini thinking оказался вообще не дееспособен. Копировал и запускал исходный код без изменений. Раз за разом. В надежде на изменения... безумие. Даже 1.5 flash лучше справлялся. Он реально экспериментировал, сравнивал, выбирал.
И так с любой моей задачей. Я пришёл к выводи что "думальщики" лишь имитируют размышления. А результат у них тот же или хуже обычных. Но ещё токенов больше тратят.
Да я понял и согласен. Но я не провожу границы между тогда и сейчас. Сейчас всё тоже сложение векторов в основе только надстроек стало больше. И дорогу прокладывали эвристически тогда и сейчас.
Ну да Word2Vec стал известен относительно недавно.
Королева = король - мужчина + женщина.
Нищеброд = король + женщина - корона.
Многозначность была.
Жаль только что так долго придумать не могли эту простейшую идею.
Но операции над векторами в нейросетях были и никуда не делись.
Основа нейросетей это умножение матриц. Так что математика тоже никуда не девалась.
LSTM придумали в 1997 году. А RNN в принципе ещё раньше.
А всего несколько лет назад придумали Транс (2017).
И что значит "однозначно сопоставляется с вектором" ?
Нейросети имеют вероятностную природу. На входе и сейчас токены однозначно сопоставляется. А на выходе этого давно никто не ждёт.
Когда рассказчик дерьмовый, конечно, не понятно (я не про статью, я её не читал).
Однако, как я считаю, понять это довольно просто.
Эмбеддинги - это способ представить класс/понятие через вектор.
"слово" (класс) = [0.3, -0.2, 0.6] (вектор)
А сумма векторов здесь не работает, потому что теряется информация о порядке (например, "вопрос про" или "про вопрос"). Потому придумали RNN и Транс. А нейросеть - это просто функция с большим количеством связей (настраиваются весами). И обратное распространение как способ подбора весов.
Конечно. Но мой посыл был в том, что "рассуждатели" полностью провалились там, где должны были иметь преимущество. В решении нестандартных задач.
Результат выглядит как: Взяли результаты чужого труда. Видимо, это обошлось им в $30. Взяли халявную модель и затюнили($20). Получилась сенсация за $50.
По моему опыту все эти модели "рассуждений" и тесты - полный мусор.
На моих задачах(программирование + немного математики) они рассуждают в среднем 6 секунд. И выдают абсолютно бесполезный ответ. А вот gemini-exp-1206 справляется лучше всех рассуждателей вместе взятых. Отмечу, что мои задачи как раз не типовые.
Блин. Да тут на самом деле всё очевидно.
Сначала в сеть закачивают ~15 терра-токенов говна из интернета.
Потом чёта настраивают. Потом приходит неизвестно кто.
И задаёт вопрос про своих тараканов в голове. Плюс высокая температура сэмплера.
Ну результат закономерный. Сетка теряется в догадках чё от неё хотят.
Ссылки на все статьи есть. А что касается ZNorm то в статье есть результаты тестов.
И там довольно просто. Кому надо сами могут проверить.
Да нормально всё. Наконец то статья от того кто знает о чём говорит.
Надоели дурацкие тексты про OpenAI и прочих корпоратов.
Или - как собрать GPT2 из говна и палок для чайников.