Судя по тому, что его обучили чуть ли не на всем Интернете, книжка Азимова там точно была в обучающих данных (еще и на нескольких языках). Но видимо он положил на законы болт.
Это будет лишь довольно достоверная иллюзия понимания. ChatGPT, например, может обратить случайную строку, правильно отвечает на вопросы типа: Сколько будет 25 умножить на 13? и тому подобное (возможно его дообучают на вопросах, которые задают люди, не зря же к нему отрыли свободный доступ).
Но вот я попробовал дать ему следующее задание: Составь строку, в которой каждый второй символ будет "а", а каждый третий "б".
Человек должен ответить, что задача противоречива и не имеет решений. По первому условию шестой символ должен быть "а", а по второму условию "б".
И заметьте, это очень-очень простая задача. Но нейронка с ней не справилась и выдала ошибочный ответ:
Потому что эмоции составляют значительную частью общения. Но конечно же общение это не только эмоции, а еще и понимание. Когда я говорю с человеком, он хотя бы в какой-то мере меня понимает. Или, скажем так, потенциально способен понять то, о чем я говорю.
Про это речи не шло. В статье автор утверждает, что люди будут считать чат-бота лучшим другом. А так да, вы правы, если я буду думать, что со мной общается человек, то и вести я с ним себя буду как с человеком.
Нет, это исключительно ваше субъективное восприятие и не более. Пока у нас нет оценочных критериев мы не может что-то утверждать.
Нет, не исключительно мое. Так считают в том числе разработчики данных алгоритмов.
И чем он в таком случае лучше ИИ?
Хотя бы тем, что он потенциально способен на эмоции, а ИИ, в его современном виде, нет. Если человек говорит, что он мне сопереживает, это может быть либо правдой, либо ложью. В случае чат-бота это даже не ложь (во всяком случае непреднамеренная), ведь его реплика получена в результате предсказания следующего слова (вернее токена).
Изначально мой посыл был в том, что для полноценного общения не только я должен испытывать эмоции, но и тот с кем я общаюсь. Алгоритмы на это пока не способны.
Вы уверены? Уж, что-то, а подобное укладывается в рамки простейшего алгоритма же.
Опять таки, написать, что он сопереживает и сопереживать - не одно и тоже.
Играть в дружбу и дружить не совсем одно и тоже. Не находите? Если у меня в жизни случится что-то нехорошее, то друг не только может дать совет, но и просто поддержит морально, будет сопереживать. Чат-боты на это не способны (пока по крайней мере).
В эмоциях, как минимум. Я сам их в процессе общения испытываю и понимаю, что и на той стороне они есть. Если эмоций нет, то многие коммуникативные акты теряют смысл. Это даже в общении человек-человек работает.
Ну я собственно о том и говорю. Да, в какой-то степени бот может развлечь, с ним можно пообщаться на какие-то интересные темы, использовать в работе и прочее. Но считать его другом и общаться как с другом... очень сомнительно.
Похвала здесь просто как пример. Можно заменить на уважение или что-то другое, суть от этого не изменится. Алгоритм работающий на статистике не может уважать, восхищаться и прочее. Для него эти слова просто набор токенов, которые идут друг за другом с определенной вероятностью. Считать его другом очень странно.
Видимо в рамках услуги "Почувствуй себя на Кубе". А если без шуток, то вы правы. У меня интернет + интернет ТВ + мобильный интернет от МТС. В рандомное время тупо нет интернета минут на 30-40. Слава Богу случается не очень часто, но бесит жутко.
Дело не в правдоподобности, а в знании, что на той стороне нет эмоций и чувств (только статистика). Хотя кто знает, может причина в том, что я достаточно хорошо понимаю как работают gpt-подобные сетки? И если бы такого понимания не было, я бы тоже был склонен очеловечивать такое общение.
Похвала сама по себе из воздуха не возникает, так что вопрос не имеет смысла. Если буду думать, что это человек - будет приятно (особенно если похвала заслужена).
Общение это не только обмен информацией, но еще и эмоции. А какие могут быть эмоции, если знаешь, что похвала (или что-то подобное) является результатом работы алгоритма, который этих самых эмоций лишен? Тогда уж лучше самому с собой поговорить.
А вот если речь пойдет о практическом применении ChatGPT и подобных сеток как рабочего инструмента, то ту я соглашусь, это и рынок труда изменит и много чего еще.
Все люди разные. Безусловно приверженцев вашей точки зрения будет какое-то количество. Но лично я считаю, что некорректно экстраполировать особенности собственной психики на прям всех-всех.
Да ChatGPT безусловно хорош и, очень вероятно, будет еще лучше, но друзей он никак не заменит. По крайней мере не всем.
Если рассматривать именно как замену живого общения, то это на уровне безалкогольного пива и резиновых женщин. То есть в каких-то кейсах да, но в целом нет.
Сетка ничего не чувствует! Если она меня, например, похвалит, это не то же самое, что похвалит живой человек.
Судя по тому, что его обучили чуть ли не на всем Интернете, книжка Азимова там точно была в обучающих данных (еще и на нескольких языках). Но видимо он положил на законы болт.
Это будет лишь довольно достоверная иллюзия понимания. ChatGPT, например, может обратить случайную строку, правильно отвечает на вопросы типа: Сколько будет 25 умножить на 13? и тому подобное (возможно его дообучают на вопросах, которые задают люди, не зря же к нему отрыли свободный доступ).
Но вот я попробовал дать ему следующее задание: Составь строку, в которой каждый второй символ будет "а", а каждый третий "б".
Человек должен ответить, что задача противоречива и не имеет решений. По первому условию шестой символ должен быть "а", а по второму условию "б".
И заметьте, это очень-очень простая задача. Но нейронка с ней не справилась и выдала ошибочный ответ:
.аба.аба.аба.аба.аба.аба.аба.аба.аба.аба.аба.аба.аба.аба.аба
Потому что эмоции составляют значительную частью общения. Но конечно же общение это не только эмоции, а еще и понимание. Когда я говорю с человеком, он хотя бы в какой-то мере меня понимает. Или, скажем так, потенциально способен понять то, о чем я говорю.
То что так делают некоторые не означает, что так будет делать подавляющее большинство.
Про это речи не шло. В статье автор утверждает, что люди будут считать чат-бота лучшим другом. А так да, вы правы, если я буду думать, что со мной общается человек, то и вести я с ним себя буду как с человеком.
Нет, не исключительно мое. Так считают в том числе разработчики данных алгоритмов.
Хотя бы тем, что он потенциально способен на эмоции, а ИИ, в его современном виде, нет. Если человек говорит, что он мне сопереживает, это может быть либо правдой, либо ложью. В случае чат-бота это даже не ложь (во всяком случае непреднамеренная), ведь его реплика получена в результате предсказания следующего слова (вернее токена).
Изначально мой посыл был в том, что для полноценного общения не только я должен испытывать эмоции, но и тот с кем я общаюсь. Алгоритмы на это пока не способны.
Опять таки, написать, что он сопереживает и сопереживать - не одно и тоже.
Играть в дружбу и дружить не совсем одно и тоже. Не находите? Если у меня в жизни случится что-то нехорошее, то друг не только может дать совет, но и просто поддержит морально, будет сопереживать. Чат-боты на это не способны (пока по крайней мере).
И что? Если в игре персонаж будет притворяться вашим другом, то вы будете его таковым считать?
В эмоциях, как минимум. Я сам их в процессе общения испытываю и понимаю, что и на той стороне они есть. Если эмоций нет, то многие коммуникативные акты теряют смысл. Это даже в общении человек-человек работает.
Ну я собственно о том и говорю. Да, в какой-то степени бот может развлечь, с ним можно пообщаться на какие-то интересные темы, использовать в работе и прочее. Но считать его другом и общаться как с другом... очень сомнительно.
Похвала здесь просто как пример. Можно заменить на уважение или что-то другое, суть от этого не изменится. Алгоритм работающий на статистике не может уважать, восхищаться и прочее. Для него эти слова просто набор токенов, которые идут друг за другом с определенной вероятностью. Считать его другом очень странно.
Видимо в рамках услуги "Почувствуй себя на Кубе". А если без шуток, то вы правы. У меня интернет + интернет ТВ + мобильный интернет от МТС. В рандомное время тупо нет интернета минут на 30-40. Слава Богу случается не очень часто, но бесит жутко.
В практических целях безусловно, для общения - точно не подавляющее большинство (мой прогноз).
Пока не понимаешь как оно работает, могут возникать иллюзии на тему "лучший друг", но как только вникнешь в тему, магия тут же исчезнет.
Дело не в правдоподобности, а в знании, что на той стороне нет эмоций и чувств (только статистика). Хотя кто знает, может причина в том, что я достаточно хорошо понимаю как работают gpt-подобные сетки? И если бы такого понимания не было, я бы тоже был склонен очеловечивать такое общение.
Похвала сама по себе из воздуха не возникает, так что вопрос не имеет смысла. Если буду думать, что это человек - будет приятно (особенно если похвала заслужена).
Общение это не только обмен информацией, но еще и эмоции. А какие могут быть эмоции, если знаешь, что похвала (или что-то подобное) является результатом работы алгоритма, который этих самых эмоций лишен? Тогда уж лучше самому с собой поговорить.
А вот если речь пойдет о практическом применении ChatGPT и подобных сеток как рабочего инструмента, то ту я соглашусь, это и рынок труда изменит и много чего еще.
Все люди разные. Безусловно приверженцев вашей точки зрения будет какое-то количество. Но лично я считаю, что некорректно экстраполировать особенности собственной психики на прям всех-всех.
Да ChatGPT безусловно хорош и, очень вероятно, будет еще лучше, но друзей он никак не заменит. По крайней мере не всем.
Если рассматривать именно как замену живого общения, то это на уровне безалкогольного пива и резиновых женщин. То есть в каких-то кейсах да, но в целом нет.
Сетка ничего не чувствует! Если она меня, например, похвалит, это не то же самое, что похвалит живой человек.
Это не сложение, а конкатенация строк
Или просто русский
Довольно ограниченное количество вопросов подразумевает один единственный ответ.