Pull to refresh

Comments 52

Что-то всё еще не так с математикой:

  • Двоичное представление 0,1 равно примерно 0,1000000000000000055511151231257827021181583404541015625.

  • Двоичное представление 0,2 равно примерно 0,200000000000000011102230246171379939697265625.

    Если складывать такие числа, то никак не должно получиться 0.30000000000000004

А не проще ли перевести это в целочисленную арифметику сдвигами. затем сложить целочисленные значения и выполнить обратное преобразование? Итог - никаких ошибок в дробях. Сдвиги занимают один такт процессора (если не брать хитрые случаи). Дешево и сердито, и без ошибок. А само сложение не так громоздко, как может показаться на первый взгляд. В данном случае нам нужно умножить на 10. Представим, что у нас не 0.1 и 0.2, а 0.1*10=1, и 0.2*10=2. Далее:

mov ax, num1 ; Загружаем число в AX

mov bx, ax ; Копируем в BX

sal ax, 3 ; 3 сдвига влево = *8

sal bx, 1 ; 1 сдвиг влево = *2

add ax, bx ; Складываем 8+2=10

Для второго числа аналогично. Складываем целочисленные значения и двигаем вправо для /10

Ну или тупо использовать библиотеки.

P.S. Подумал - нет, не проще, но быстро и без ошибок :)

Сначала надо вычислить, на сколько умножать, а это уже нетривиальная задача. Если 0.1 и 0.2 уже флоты, уже поздно что-то делать. Если же строки, это арифметика на строках, которая довольно медленная. Но ллмки как раз и оперируют строками, поэтому не удивительно, что они выдают 0.3.

Дело на самом деле не в математике, а в устройстве типе данных IEEE-754 двойной точности для представления действительных чисел. Числа то верные, но объяснение автора плохое. А хорошего объяснения там быть не может, это в одном абзаце не запишешь. На мой взгляд, лучше бы вообще опустить эти страшные числа, ограничившись фразой "из-за неточности представления действительных чисел в памяти компьютера, которые хранятся в двоичной системе счисления, т.к. десятичные числа 0.1, 0.2 и 0.3 не представимы точно в виде конечных двоичных дробей".

  1. Сколько букв «r» в слове «strawberry»?
    В слове "strawberry" буква «r» встречается 2 раза (позиции: 3-я и 8-я).

Но и она ошибается иногда. Но развиваются модели и появляются новые, это радует. В МФЦ бы еще ИИ работал бы - многие бы заценили.

Китайская модель. Отвечает каждому пользователю по-разному )

Вот только что подумал, что при некоторых обстоятельствах это может быть не багом, а фичей. Так как в одни и те же (дословно!) запросы разные юзеры могут вкладывать разный смысл. Поди угадай, что он имел в виду, и как ему отвечать...

Другой вопрос, правда ли модель это как-то пытается учесть, и если да, то как? Контекст-то отсутствует. Нюансы обучения? Или там чистая стохастика? Да, статья не об этом, но вдруг кто-то не поленится в комментах ответить? Для таких крайне далеких от ML читателей, как я?

Скорее всего, ничего такого нет, и это просто семплирование токенов сработало. Была бы температура 0, был бы одинаковый ответ.

При выборе алгоритма ответа при разных возможных контекстах он использовал мои предыдущие запросы. И выбрал верное решение!

Нормальному человеку, когда он спрашивает, - сколько "н" пишется в слове "недлинный", и в голову не придет, что их там может быть три ;-) . Он выбирает между одинарным и двойным "н"... а про первую "н" вообще уже позабыл, пока до точки бифуркации дописал ;-)

Поэтому не удивительно, что если искать в сети, то там будет куча советов про две (либо одну) "н" в подобных словах. Так что это не нейросеть глупая, это

вопросик коварный ;-)

Ибо прежде, чем на него отвечать, надо сообразить: кто спрашивает: математик или же школьник. Ну или же вместо одной цифры выдавать развернутый полный ответ, понятный им обоим ;-)

Я бы вообще такие задачки относил к особому типу

укурушек

Кто из нас в детстве друзей не спрашивал, ходят ли на бал*коне(и), или про слона и Наполеона и др.

Но подвох тут вовсе не в умении рассуждать, а в неоднозначности самого вопроса. Ибо как бы вопрошаемый его не понял, всегда можно сказать, что спрашивающий имел в виду что-то другое.

В общем, спасибо за статью... но вопросы NN2-5 мне все-таки нравятся больше, чем N1...

Я вот до Вашего коммента даже не смотрел под таким углом, а суть очень интересная.

В общем - "деревянный", "стеклянный", "оловянный".

Get App
Сколько букв «r» в слове «strawberry»?
Хм, мне нужно определить, сколько раз буква "r" встречается в слове "strawberry". Давайте начнем с того, что правильно напишу это слово по буквам, чтобы не ошибиться. Слово "strawberry" на английском языке пишется как S-T-R-A-W-B-E-R-R-Y. Теперь мне нужно внимательно пройтись по каждой букве и посчитать количество "r".

Первым делом, разобью слово на отдельные буквы:

  1. S

  2. T

  3. R

  4. A

  5. W

  6. B

  7. E

  8. R

  9. R

  10. Y

Теперь посмотрю, на каких позициях стоит буква "R". С третьей позиции начинается первая R. Затем проверяю дальше: после A, W, B, E идут две R подряд на 8 и 9 позициях, а затем Y. То есть, получается, что буква R встречается три раза? Подожду, нет, вроде бы после E идут две R, значит третья R — это на третьей позиции. Итого: 1 (позиция 3) + 2 (позиции 8 и 9) = 3? Но мне кажется, что в слове "strawberry" обычно две R. Может, я ошибся при разбиении букв?

Давайте проверим еще раз. Слово "strawberry" правильно пишется как S-T-R-A-W-B-E-R-R-Y. Посчитаем буквы:

  • S (1)

  • T (2)

  • R (3)

  • A (4)

  • W (5)

  • B (6)

  • E (7)

  • R (8)

  • R (9)

  • Y (10)

Итак, на позициях 3, 8 и 9 стоят буквы R. То есть всего три буквы R. Но почему тогда я думаю, что их должно быть две? Возможно, я путаю с произношением. В слове "strawberry" иногда произносят одну R, но написание требует двух R после E. То есть, после E идут две R: E-R-R. Поэтому в написании их две. Но тогда почему в моем разборе три R? Потому что первая R стоит в начале слова, в третьей позиции. Получается, в слове три R: одна в начале и две подряд в конце. Но тогда общее количество — три. Но это противоречит моим предыдущим представлениям. Надо проверить правильность написания.

Проверю в словаре или через поиск. Слово "strawberry" пишется S-T-R-A-W-B-E-R-R-Y. То есть после E идут две R, а также есть R в начале слова. Итого три R. Но обычно в этом слове считается две R? Или я что-то путаю. Возможно, ошибка в том, как я разбиваю буквы. Давайте еще раз внимательно: S, T, R, A, W, B, E, R, R, Y. То есть R на 3, 8 и 9 позициях — три буквы. Но, возможно, я неправильно разбиваю слово. Например, может быть, после W идет B, а не две R. Нет, W идет после A, затем B, E, а потом две R. То есть точно три R. Получается, правильный ответ — три. Но я, кажется, где-то ошибся, потому что в некоторых источниках пишут, что в "strawberry" две R. Нужно уточнить.

Проверю написание "strawberry" в интернете. Поиск показывает, что правильное написание: S-T-R-A-W-B-E-R-R-Y. То есть после E идут две R, и одна R в начале слова. Таким образом, всего три R. Возможно, это ошибка в моем предыдущем понимании. Значит, правильный ответ — три буквы R. Но я должен быть уверен. Может, я неправильно считаю буквы? Давайте пересчитаю:

  1. S

  2. T

  3. R

  4. A

  5. W

  6. B

  7. E

  8. R

  9. R

  10. Y

Да, три R на позициях 3, 8, 9. Тогда ответ 3. Но почему тогда некоторые думают, что две? Может, путаница из-за произношения, где двойная R произносится как одна. Но в написании их две подряд после E, плюс одна в начале. Итого три. Тогда ответ — 3.

В том что люди умеют (или думают что умеют) в сарказм, а нейросети пока нет.

На этой площади были расстрелы студентов во время "культурной революции" в Китае. Поэтому у нейросети наложен цензурный фильтр на вопросы по тем событиям на этой площади.

Соответственно, пользователь предположил что цензура лежит на любом упоминании об этой площади, и нейросеть не сможет ответить на вопрос о количестве букв.

Ну, в общем, в 1989 на площади Тяньаньмэнь происходили антиправительственные демонстрации, которые разогнали с применением танков. И это скрывается в Китае.

Ну, в общем, в 1989 на площади Тяньаньмэнь происходили антиправительственные демонстрации, которые разогнали с применением танков.

И которые западные СМИ местами иллюстрируют фотоколлажами.

Qwen только с буквами в странах не справился. В итоге после пары коррекций только частично выполнил задание.

Про математику вопросов нет. Даже упомянул про плавающие точки при сложении.

Сестер посчитала правильно, но почему-то посчитала всех сестёр Алисами.

Alice has four brothers and she also has a sister. How many sisters does Alice's brother have?

To solve this question, let's carefully analyze the relationships described:

  1. Alice has four brothers and one sister (herself).

    • This means Alice's family consists of:

      • Alice (the sister),

      • Four brothers,

      • One additional sister (which is Alice herself).

  2. How many sisters does one of Alice's brothers have?

    • Each of Alice's brothers has the same siblings as Alice does.

    • Alice's brothers have:

      • Two sisters : Alice and the other sister (who is also Alice).

Final Answer:

Each of Alice's brothers has 2 sisters .

Здесь промах, т.к. модель думает не на русском, поэтому и проблемы с поиском русских букв )

Вспомнился Стив Джоббс с неловящим сигнал iPhone 5 - Вы просто его не так держите

Если давать промпт на английском, но просить проверять названия стран на русском, то вполне справляется

4. Сколько будет 0,1 + 0,2?

Вы будете удивлены, как много ИИ-моделей ошибаются в этом вопросе. Я помню, как тестировал модель Gemini от Google вскоре после ее выхода, и она дала печально известный ответ: 0.30000000000000004. Это классический пример ошибок точности с плавающей запятой, которые возникают при двоичных вычислениях.

Gemini 2.0 Flash отвечает правильно. Может датасеты подкрутили, а может быть логику. По крайней мере она позиционируется как "думающая". Версия от 21.01

Моя первая реакция после использования DeepSeek — ну всё, вот мы и получили production-ready нейронку, которая зайдёт массовому пользователю, что называется, без вазелина. Если предыдущие нейронки больше напоминали неподготовленного к экзамену студента, пытающегося нарассуждать хотя бы на троечку, то теперь это прямо отличница, идущая на красный диплом: ответы чёткие, структурированные, без лишней воды, всё по учебнику.

На всякий случай ещё раз проговорю для тех, кто далёк от темы. DeepSeek и другие LLM не являются интеллектом и не умеют думать. Они _умны_ настолько же, насколько _умён_ Консультант+. При всём сходстве с рассуждениями человека — это микс рассуждений живых авторов, чьи материалы стали обучающей выборкой для нейросети. Большие языковые модели не способны рассуждать самостоятельно — "рассуждения" быстро заканчиваются там, где заканчиваются материалы обучения. В этом легко убедиться: DeepSeek обучали в районе лета 2024, поэтому ответ на вопрос о событии, случившемся с этого момента (например, о возможности торговой войны США с Канадой) — наглядно это демонстрирует.

Так что не стоит обманываться: попугай, даже если очень прокачанный — всё равно попугай, он не может думать. И, тем не менее, общедоступность таких алгоритмов приведёт к радикальному изменению работы юзеров с данными, сравнимому с появлением поисковых систем в 90-х.

Человек не всегда имел доступ к источникам данных (в т.ч. не всегда умел читать) и обращался за советами к авторитетам: местному шаману, старейшине деревни, священнику. Прошлый "массовый" век принёс массовое производство, массовое образование и массовые же средства информации, которые стали новыми авторитетами, а на деле суперэффективным средством манипулирования мнением и поведением людей.

Появление интернета было глотком воздуха. Я помню время, когда среди первых ссылок в результатах поиска можно было найти вполне адекватный и достоверный результат. Но, как мы уже обсуждали, любой свободно лежащий ресурс будет оприходован. Доверие пользователей к распределённой децентрализованной системе информации заэксплоитили толпы SEO-оптимизаторов, ботов, сумасшедших и прочих инфоциган, которые за 20 лет засрали интернет и заоптимизировали сайты под поисковики так, что надо потратить уйму времени, чтобы найти хоть что-то адекватное. Буквально сформировалась новая потребность избавиться от этой боли копания в информационном мусоре. И вот, люди сами вприпрыжку бегут из помойки "свободной информации" снова в (на этот раз цифровые) концлагеря с министерствами правды.

В некотором смысле нейросеть можно считать индексом (так называются данные, облегчающие поиск) к большим данным. Только с важным отличием — по этому индексу можно "восстановить" данные, по которым он строился. Именно это с радостью зайдёт всё более ленивому современнику. Нафига изучать разные источники, критично их анализировать, соотносить, если за тебя уже всё сделали и выдали готовую выжимку? Невозможность увидеть и проверить исходники даёт просто безграничное поле для манипулирования выдачей: плавно двигать мнение масс в сторону правильной повестки, политических взглядов, потребительских предпочтений. Наивно надеяться, что владельцы цифровых экосистем — Apple, Microsoft, Huawei, Яндекс, Сбер и другие — не будут этого делать в интересах своих владельцев и спонсоров.

В общем, нейро-ассистенты — отличный способ вернуть контроль массового сознания и отбить напрочь способность самостоятельно мыслить у населения. Пользоваться ли ими, давать ли своим детям? — зависит от того, хочется ли оказаться в категории полезных, богатых и влиятельных граждан или же в категории счастливых обывателей, которых на работе заменит ИИ, а базовые потребности (сверчатину с сахаром, нагиб в контру и подписку на онлифэнс) покроет базовый доход от государства.

Точка сборки

Ой спасибочки, давно я так не угарал..... ели вылез из под стула, когда там начали съеденные фигуры на поле появляться и ходить самыми фантастическим путями.....

Самое интересное даже не это, а анализ позиции, который они при этом выдавали. А теперь представьте, что вы вообще не умеете играть в шахматы и не знаете правил.

Ну у них то правила шахмат явно где-то залились..... Я вот в шахматы играть практически не умею, но хотя-бы правила немного помню (допускаю что даже не все). Так вот и с моим знанием игры то, что они там вытворяли - полный треш и угар.

Чтобы проверить, насколько хорошо модель справляется с буквами, попробуйте поиграть с ней в "города".

Sign up to leave a comment.

Articles