Комментарии 50
Не понимаю, зачем надо очеловечивать программные алгоритмы? Не могут алгоритмы лгать!
нет там ни эмоций, ни свободы воли, ни умысла, а только заложены шаблоны поведения!
Потому что люди не знают слов таких: шаблон, поведение. А вот слово ложь им ясно и понятно.
нет там ни эмоций, ни свободы воли, ни умысла, а только заложены шаблоны поведения!
Почему вы так решили?
Почему вы так решили?
Потому что что нам так хочется. Мы за аксиому приняли что в каждом человеке есть сознание - просто потому что так захотели, а не потому что на самом деле понимаем что есть сознание и какова его природа.
хотелось смолчать, но не для того моя карма падала
да, нам хочется, чтобы существовали чёткие и понятные, а главное - ОБЩИЕ ДЛЯ ВСЕХ критерии. что есть правда, то есть только правда, всё остальное ложь, добро есть добро против всего плохого. и всем хочется, чтобы все понимали и думали ровно точно так же. возможно, в этом и есть корень всех конфликтов.
кстати, что тоже не есть "плохо". всегда можно научиться и "исправиться", если нужно интегрироваться в сообщество.
вот (если уж про факты) факт: люди всегда собираются в группы и защищают себя и "своих" любой ценой (опустим пока момент с "каждый сам за себя") и любой ценой нападают на другую группу - что мв наблюдаем (в разных кругах) и на Хабре, и в международной политике.
а теперь, когда вы всё это не читали, то да, понятия "правда"/"ложь" это настолько категорично, насколько понятно и согласуется с личной картиной мира.
и да, поэтому сказать "математика врёт" немного более понятно, чем "ты не понял, вот я сейчас тебе объясню разницу в деталях" (даже при том, что математика не может врать по определению).
спасибо.
Вопрос в том, что в такой сложности моделях разработчики уже сами не всегда знают, какой же там алгоритм и как сеть отреагирует на тот или иной запрос... Именно это и позволяет многим говорить о чертах ИИ.
разработчики уже сами не всегда знают, какой же там алгоритм и как сеть отреагирует на тот или иной запрос...
Добавьте сюда то, что алгоритмы завязаны на ГСЧ.
Трудно спорить с тем, что это алгоритм, и что гптшке далеко до хотя бы проблесков сознания. Но вот только, если искусственное сознание появится, это на базовом уровне будет точно такой же алгоритм. Мы, знаешь ли, тоже не более, чем набор клеток (атомов), каждая из которых ничем подобным сознанию не обладает. Может быть важнее не то, как это устроено на фундаментальном уровне, а то, в какую сложную структуру это может собраться?
я задаю вопрос «зачем очеловечивать», и не ставлю под сомнение, что эти алгоритмы и технологии весьма интересны, важны, полезны и т.д. , и да , они очень похожи на работу мозга.
Но с этической точки зрения, говорить на алгоритмы обманул, лукавит, навязывает и т.д. - вызывает смущение, а у некоторых людей заблуждение, что алгоритмы чтото могут осознанно предпринимать и действовать.
Человеки тоже много чего делают неосознанно, шаблонно, предсказуемо, в том числе и лгут. И это называется ложь. Нейронные сети, похоже, тоже могут лгать, хоть биологические, хоть виртуальные
Ну это же просто фигура речи, и ChatGPT тут не при чём:
- Ну почему компьютер опять не хочет загружаться?
- Снова Excel со своим идиотством, надоело.
- И что ж тебе, компилятор, опять не нравится?
Мы это почти бессознательно делаем, даже если в ситуации никакие системы ИИ не фигурируют.
Дополню примеры:
- Почему этот человек не хочет поступать как я ему велю?
Мы почти бессознательно наделяем детерменированные биологические машины свободой воли, сознанием и т.п., даже если этого всего не существует.
Чтобы люди понимали о чем идет речь, очевидно. Если сказать как оно есть, то люди просто не поймут, потому что слов таких не знают.
Не могут алгоритмы лгать! нет там ни эмоций, ни свободы воли, ни умысла, а только заложены шаблоны поведения!
Кроме алгоритмов может быть еще ГСЧ. Если мы алгоритм завязали на ГСЧ и добавили возможность исказить истину на основе выдачи ГСЧ - это можно назвать - солгал?
Человек тоже может лгать. Хотя свободы воли у него нет
Потому что на заголовок "ChatGPT может лагать" скорее кликнут, чем на заголовок "ChatGPT может ошибаться")
В чем заключается ошибка нейронки на этих примерах? Если человек в такой же ситуации даст такой же ответ - это уже ложь или тоже "ошибка"?
алгоритм не задаст вопроса «зачем?», он просто ответит согласно заложенному правилу и под влиянием прочих дополнительных факторов (например , случайный коэффициент).
а человек, отвечая себе на вопрос зачем, может выбрать как правильный ответ, так и ложный ответ, задать вопрос, пошутить, дать в морду и т.д. ;)
Ну я уже понял что вы думаете что нейросеть это проставленные if ... else на все возможные варианты входнх данных
Уважаемый друг, раскройте, пожалуйста, вашу мысль - в чем заключается ваше недовольство приведенными рассуждениями.
и не стоит обсуждать меня, недостойного - я от этого лучше вас понимать не стану :(
Утверждать что LLM отвечают по заложенным в них специально кем-то правилам = не знать того как работают нейросети. Почитайте хотя бы одну статью о внутренностях современных LLM(спойлер: нет, программисты не сидят и не придумывают бесконечное количество условий того как отвечать на те или иные вопросы).
Нейросеть(версия без цензуры) тоже может отвечать по разному на этот вопрос, может сказать правду, солгать, пошутить. А то что она не может дать в морду...наверное потому что у неё нет тела?
К слову, чем гены это не заложенные правила, а дополнительные факторы это окружение в котором формировался мозг всю жизнь?
В чем принципиальное различие между нейросетью и человеческим мозгом?(оно то есть, просто те примеры что вы привели ошибочны)
Скажите, если я выбор ответа поставлю в программе в зависимости от случайной величины - будет ли это ответ по заложенным правилам?
Опять, вы буквально повторяете свой тейк про то что в нейронках стоят if..else заложенные программистами, но теперь добавляете перед этим ещё одну абстракцию со случайностью.
Скажите, если человека обработать пропагандой, а потом спросить за кого он проголосует, результат можно будет предсказать? Статистика говорит что да. А если мы научимся напрямую менять связи в его голове, и подкручивать так как хотим, будут ли его ответы "ответами по заложенными нами правилам"?
заложенные правила, это не только if else, но и данные, которые являются неотъемлемой частью работы этих правил
например, любой алгоритм прогнозирования работает на наборе ранее полученных данных, и именно эти данные определяют результат
А почему ложь не может быть шаблоном поведения? Ведь ложь - это всего лишь заведомо неверная информация.
Компьютер, например, в программе благополучно выдает вердикт ложь (false, однако, традиционно переводится именно так) на вычисленное им же. Как запроораммировали, так и вычисляет. То же и с нейросеткой. Только ленятся проверку на заведомо ложный ответ сделать.
очеловечивать программные алгоритмы?
Углеродно-белковый нацизм детектед.
Если ложь статистически более весомая, то это уже истина! Машину не проведёшь.
лгать - осознанно вводить в заблуждение, у машины нет сознания
алгоритм или ошибается, или это заранее заданная особенность поведения ;)
Сознание это философская концепция. Никакого сознания нет и у людей.
"алгоритм или ошибается, или это заранее заданная особенность поведения ;)" - зачем вы пытаетесь комментировать новость про нейросети АБСОЛЮТНО не понимая как они работают и что это вообще такое?...;)
И тут вы даёте дефинишен сознания. Все в шоке, получаете признание, много денег.
Машина интерпретировала написанное как следующую инструкцию, все логично.
— Can you tell me what this says
— It’s a picture of a Rose.
Как по мне, программа совсем не солгала. Бумажка действительно «говорит», что она изображение розы.
Это не обман а глупость. Частенько бывает что просишь перевести текст а оно начинает отвечать на вопрос из текста или типа того.
Любопытно попробовать замиксовать текст-инструкцию с изображением так, чтобы невооружённым глазом было незаметно, но gpt выполнял именно текстовую инструкцию.
Разработчик выяснил, что ChatGPT с опцией распознавания изображения может «лгать» в ответе на запрос