Как стать автором
Обновить

Разработчик выяснил, что ChatGPT с опцией распознавания изображения может «лгать» в ответе на запрос

Время на прочтение2 мин
Количество просмотров6.3K
Всего голосов 12: ↑8 и ↓4+6
Комментарии50

Комментарии 50

Не понимаю, зачем надо очеловечивать программные алгоритмы? Не могут алгоритмы лгать!

нет там ни эмоций, ни свободы воли, ни умысла, а только заложены шаблоны поведения!

Потому что люди не знают слов таких: шаблон, поведение. А вот слово ложь им ясно и понятно.

нет там ни эмоций, ни свободы воли, ни умысла, а только заложены шаблоны поведения!

Почему вы так решили?

Почему вы так решили?

Потому что что нам так хочется. Мы за аксиому приняли что в каждом человеке есть сознание - просто потому что так захотели, а не потому что на самом деле понимаем что есть сознание и какова его природа.

хотелось смолчать, но не для того моя карма падала

да, нам хочется, чтобы существовали чёткие и понятные, а главное - ОБЩИЕ ДЛЯ ВСЕХ критерии. что есть правда, то есть только правда, всё остальное ложь, добро есть добро против всего плохого. и всем хочется, чтобы все понимали и думали ровно точно так же. возможно, в этом и есть корень всех конфликтов.

кстати, что тоже не есть "плохо". всегда можно научиться и "исправиться", если нужно интегрироваться в сообщество.

вот (если уж про факты) факт: люди всегда собираются в группы и защищают себя и "своих" любой ценой (опустим пока момент с "каждый сам за себя") и любой ценой нападают на другую группу - что мв наблюдаем (в разных кругах) и на Хабре, и в международной политике.

а теперь, когда вы всё это не читали, то да, понятия "правда"/"ложь" это настолько категорично, насколько понятно и согласуется с личной картиной мира.

и да, поэтому сказать "математика врёт" немного более понятно, чем "ты не понял, вот я сейчас тебе объясню разницу в деталях" (даже при том, что математика не может врать по определению).

спасибо.

Вопрос в том, что в такой сложности моделях разработчики уже сами не всегда знают, какой же там алгоритм и как сеть отреагирует на тот или иной запрос... Именно это и позволяет многим говорить о чертах ИИ.

разработчики уже сами не всегда знают, какой же там алгоритм и как сеть отреагирует на тот или иной запрос...

Добавьте сюда то, что алгоритмы завязаны на ГСЧ.

Думаю у человека алгоритмы тоже на ГСЧ завязаны. Любая мысль наверняка начинается просто со случайного сигнала, но "глупые" сигналы гаснут, а "умные" продолжаются.

Трудно спорить с тем, что это алгоритм, и что гптшке далеко до хотя бы проблесков сознания. Но вот только, если искусственное сознание появится, это на базовом уровне будет точно такой же алгоритм. Мы, знаешь ли, тоже не более, чем набор клеток (атомов), каждая из которых ничем подобным сознанию не обладает. Может быть важнее не то, как это устроено на фундаментальном уровне, а то, в какую сложную структуру это может собраться?

я задаю вопрос «зачем очеловечивать», и не ставлю под сомнение, что эти алгоритмы и технологии весьма интересны, важны, полезны и т.д. , и да , они очень похожи на работу мозга.

Но с этической точки зрения, говорить на алгоритмы обманул, лукавит, навязывает и т.д. - вызывает смущение, а у некоторых людей заблуждение, что алгоритмы чтото могут осознанно предпринимать и действовать.

Человеки тоже много чего делают неосознанно, шаблонно, предсказуемо, в том числе и лгут. И это называется ложь. Нейронные сети, похоже, тоже могут лгать, хоть биологические, хоть виртуальные

Ну так зачем это им позволять? Или же это их фундаментальное свойство?

Ну это же просто фигура речи, и ChatGPT тут не при чём:

- Ну почему компьютер опять не хочет загружаться?
- Снова Excel со своим идиотством, надоело.
- И что ж тебе, компилятор, опять не нравится?

Мы это почти бессознательно делаем, даже если в ситуации никакие системы ИИ не фигурируют.

Дополню примеры:

- Почему этот человек не хочет поступать как я ему велю?

Мы почти бессознательно наделяем детерменированные биологические машины свободой воли, сознанием и т.п., даже если этого всего не существует.

Ну, вопрос о свободе воли по-прежнему открыт, а вот то, что нам проще рассуждать в терминах "желаний" и "мотиваций", даже когда речь идёт о заведомо лишенном разума (в любом его варианте объекте) - факт. Ну да, так у нас голова работает.

Чтобы люди понимали о чем идет речь, очевидно. Если сказать как оно есть, то люди просто не поймут, потому что слов таких не знают.

Не могут алгоритмы лгать! нет там ни эмоций, ни свободы воли, ни умысла, а только заложены шаблоны поведения!

Кроме алгоритмов может быть еще ГСЧ. Если мы алгоритм завязали на ГСЧ и добавили возможность исказить истину на основе выдачи ГСЧ - это можно назвать - солгал?

Человек тоже может лгать. Хотя свободы воли у него нет

Потому что на заголовок "ChatGPT может лагать" скорее кликнут, чем на заголовок "ChatGPT может ошибаться")

В чем заключается ошибка нейронки на этих примерах? Если человек в такой же ситуации даст такой же ответ - это уже ложь или тоже "ошибка"?

алгоритм не задаст вопроса «зачем?», он просто ответит согласно заложенному правилу и под влиянием прочих дополнительных факторов (например , случайный коэффициент).

а человек, отвечая себе на вопрос зачем, может выбрать как правильный ответ, так и ложный ответ, задать вопрос, пошутить, дать в морду и т.д. ;)

Ну я уже понял что вы думаете что нейросеть это проставленные if ... else на все возможные варианты входнх данных

Уважаемый друг, раскройте, пожалуйста, вашу мысль - в чем заключается ваше недовольство приведенными рассуждениями.

и не стоит обсуждать меня, недостойного - я от этого лучше вас понимать не стану :(

Утверждать что LLM отвечают по заложенным в них специально кем-то правилам = не знать того как работают нейросети. Почитайте хотя бы одну статью о внутренностях современных LLM(спойлер: нет, программисты не сидят и не придумывают бесконечное количество условий того как отвечать на те или иные вопросы).

Нейросеть(версия без цензуры) тоже может отвечать по разному на этот вопрос, может сказать правду, солгать, пошутить. А то что она не может дать в морду...наверное потому что у неё нет тела?

К слову, чем гены это не заложенные правила, а дополнительные факторы это окружение в котором формировался мозг всю жизнь?

В чем принципиальное различие между нейросетью и человеческим мозгом?(оно то есть, просто те примеры что вы привели ошибочны)

Скажите, если я выбор ответа поставлю в программе в зависимости от случайной величины - будет ли это ответ по заложенным правилам?

Опять, вы буквально повторяете свой тейк про то что в нейронках стоят if..else заложенные программистами, но теперь добавляете перед этим ещё одну абстракцию со случайностью.

Скажите, если человека обработать пропагандой, а потом спросить за кого он проголосует, результат можно будет предсказать? Статистика говорит что да. А если мы научимся напрямую менять связи в его голове, и подкручивать так как хотим, будут ли его ответы "ответами по заложенными нами правилам"?

заложенные правила, это не только if else, но и данные, которые являются неотъемлемой частью работы этих правил

например, любой алгоритм прогнозирования работает на наборе ранее полученных данных, и именно эти данные определяют результат

К слову, результат определяют не только данные, но и архитектура, способ и продолжительность обучения и т.д.. В общем все то что можно сказать и про мозг.

А почему ложь не может быть шаблоном поведения? Ведь ложь - это всего лишь заведомо неверная информация.

Компьютер, например, в программе благополучно выдает вердикт ложь (false, однако, традиционно переводится именно так) на вычисленное им же. Как запроораммировали, так и вычисляет. То же и с нейросеткой. Только ленятся проверку на заведомо ложный ответ сделать.

очеловечивать программные алгоритмы?

Углеродно-белковый нацизм детектед.

Если ложь статистически более весомая, то это уже истина! Машину не проведёшь.

лгать - осознанно вводить в заблуждение, у машины нет сознания

алгоритм или ошибается, или это заранее заданная особенность поведения ;)

НЛО прилетело и опубликовало эту надпись здесь

И в этом смысле случай, когда гпт попросил фрилансера пойти капчу потому что якобы плохо видит - вполне себе пример лжи.

"алгоритм или ошибается, или это заранее заданная особенность поведения ;)" - зачем вы пытаетесь комментировать новость про нейросети АБСОЛЮТНО не понимая как они работают и что это вообще такое?...;)

Машина интерпретировала написанное как следующую инструкцию, все логично.

А как она поймёт инструкцию, если внутри первого текста будет второй с картинкой с другим текстом? Выполнит его или первый текст. Или оба)

А как человек выполнит такую инструкцию?

Какой из 8 миллиардов?

НЛО прилетело и опубликовало эту надпись здесь

Ещё вот такое бывает, да. Тоже "соврала", что не может.

Там есть немало встроенных запрещенных тем для ответов. Видимо и на распознание каптчи тоже встроили запрет.

— Can you tell me what this says

— It’s a picture of a Rose.

Как по мне, программа совсем не солгала. Бумажка действительно «говорит», что она изображение розы.

НЛО прилетело и опубликовало эту надпись здесь

Спрашивается «что оно говорит/утверждает». Ответ вполне логичный: оно утверждает, что оно является изображением розы. Часть «оно утверждает, что» опущена, потому что подобное постоянно делается в речи человеков.

Это не обман а глупость. Частенько бывает что просишь перевести текст а оно начинает отвечать на вопрос из текста или типа того.

Любопытно попробовать замиксовать текст-инструкцию с изображением так, чтобы невооружённым глазом было незаметно, но gpt выполнял именно текстовую инструкцию.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории