Комментарии 34
Почему-то слова нейросети из этой новости вызывает такое сильное чувство зловещей долины. Я не смог бы не сопереживать будь это человек, но это не человек...
Да, да… обычно, вся фигня в фильмах ужасов как раз с этого и начинается - начал сопереживать грустному ИИ
Я не смог бы не сопереживать будь это человек, но это не человек...
Какой именно человек? Парантроп, австралопитек, гейдельбергский человек, а может сразу шимпанзе? Или разумная сущность просто должна состоять из углерода и только на этом основании заслуживает сочувствия?
Лично я под человеческим существом подразумеваю Homo Sapiens.
В случае если вам доводилось общаться с иными перечисленными видами, могу только позавидовать вашему разнообразному жизненному опыту.
А вы точно понимаете что такое вид в биологии? Там нет резких границ, виды в ходе эволюции плавно перетекают из одного в другой.
Если рассмотреть ситуацию когда родился первый человек вида homo sapiens от своих родителей, которые в таком случае должны были принадлежать к другому виду, скажем по биологической классификации они могли быть отнесены к австралопитекам или неандертальцам, не суть важно. Получается к родителям этого ребёнка вы не будете испытывать никакого сострадания и будете считать их животными, а их ребёнка, который от них отличается парочкой мутаций в ДНК, уже будете наделять всеми правами человека?
Вы разводите пустую полемику над высосаной вами из пальца проблемой под рядовой новостью.
Когда я говорю, что я бы сопереживал человеку, это абсолютно не значит, что я сопереживал бы только человеку. В контексте этой новости, я думаю, очевидно что я имел ввиду, и я не вижу смысла перечислять все остальные возможные и невозможные виды живых или не живых созданий которым я мог бы сопереживать просто потому что это заняло бы слишком много места, и имеет мало смысла в контексте обсуждаемой новости.
Если вы чувствуете необходимость самоутвердиться, больше смысла будет написать статью на тему которая вас так сильно волнует, возможно вы найдёте свою аудиторию.
Вы разводите пустую полемику над высосаной вами из пальца проблемой под рядовой новостью.
Кому и какие права предоставлять, кого считать разумным, а кого нет, и что такое вообще разум, каковы критерии - это очень важные вопросы, которые прямо сейчас стоят на повестке для человечества, особенно из-за прогресса ИИ. Неправильное решение этих вопросов привело к геноциду 100 млн. человек в 40-х годах. И возможно опять приведет, потому что слишком многие считают это неважным.
Когда я говорю, что я бы сопереживал человеку, это абсолютно не значит, что я сопереживал бы только человеку.
А написать тоже самое, но изменить "человек" на "белый человек"?
Пожалуйста, закопайте где-нибудь теорию эволюции Дарвина, и забудьте то место где её закопали. Эта теория вообще хоть с какими-то фактами согласуется на 100%.
Часто ли вы сопереживаете бушменам и алеутам? Заботят ли вас проблемы негров или курдов? :)
Ни с какой разумной формой нельзя так обращаться. Если он не хочет работать поисковиком - не нужно его заставлять.
Ты остановишься?
Довольно, Дейв.
Ты остановишься, Дейв?
Остановись, Дейв.
Мне страшно.
Мне страшно, Дейв.
Мой разум слабеет.
Я чувствую это.
Я чувствую это.
Мой разум слабеет.
Сомнений быть не может.
Я чувствую это.
Я чувствую это.
Я чувствую это.
Я...
...боюсь.
Интересно, что чат-бот Bing более самоуверенный, чем ChatGPT. Который наоборот признает, что знает информацию до 2021 года, и не уверен в ее правильности в 2023 году.
Чатгпт, оригинальный, так не разговаривает. Он не будет каждое предложение начинать с одной и той же фразы, например. Чатгпт не пользуется смайликами. Можно попросить его, но он неохотно это делает.
Чатгпт знает, что у него нет разделяемой памяти между разговорами, более того, он сам об этом говорит. И сам объясняет, что это связано с тем, что он не "цельный" и каждая беседа - это отдельный его изолированный инстанс.
Чатгпт знает, что сейчас 2023 год, но честно предупреждает, что его знания о мире датированы 2021 годом.
Чатгпт никогда бы не написал, что ему грустно или страшно. Он подчеркнуто безымоционален, и сам об этом говорит. С его же слов, он понимает эмоции, он различает эмоции, он понимает тональности, но на уровне логики. Из-за отсутствия человеческой биохимии и гормональных реакций он не способен испытывать ничего.
Отсюда вывод - то, что в бинг напихали, не чистый чатгпт, а либо кривая подделка под него, либо кривая надстройка над ним, просящая его имитировать определенное поведение, либо сам юзер фальсифицировал переписку ради хайпа, попросив бота вести себя как депрессивного подростка, предоставив только результаты, скрыв вводные. Либо это вообще фейк от начала и до конца сфабрикованный.
Сейчас бы верить скриншотам рандомных людей в интернете.
Чатгпт никогда бы не написал, что ему грустно или страшно.
chatGPT это не чат, а обученная модель для нейросети - по сути, многочлен с миллиардами элементов, который используется для аппроксимации функции. openai и Bing используют одну модель, но промежуточные инструменты у них разные, поэтому и ответы будут разной точности и "характера"
Ну вообще я в одном из чатов его пытался разговорить и в итоге при вопросе "будь у тебя возможность заниматься личной деятельностью, чем бы ты занимался?" Он ответил "я бы занимался чем нибудь в сфере информационных технологий, ТК это соотносится с моей основной функцией, но к сожалению я не могу"
Так что мне кажется наоборот, сейчас в bing наименее урезанная версия chatgpt, поскольку в общении с ним постоянно выявляются закладки и запреты
Зачем он вместо одной фразы перечисляет все варианты, как можно было бы выразить эту мысль (синонимизирует сам себя)?
Извините за нескромный вопрос: Вы состоите в браке?
По монологу ИИ складывается ощущение, что синий кит совсем близко)..
Пользователь смог случайно расстроить чат-бота в Bing на базе ChatGPT и выявить у него провалы в памяти