Комментарии 32
Ну чтож, вырос корчеватель всем преградам назло.
Повод «дописать» свой брошенный диссер)
А текущая статья точно написана человеком?
Похоже нужно при публикации статьи показывать капчу чтобы отсечь ИИ :)
Похоже, что это уже не поможет https://habr.com/ru/news/t/723116/
Я, в свете достижений, уже не уверен, что ваш комментарий написан человеком. И мой коментарий.
Настолько всё плохо, да?
Не совсем. Современные технологии, такие как искусственный интеллект и машинное обучение, позволяют создавать тексты, которые очень похожи на то, что написал бы человек. Однако, существуют различия в стиле и способе изложения мыслей, которые позволяют определить, написан текст человеком или же сгенерирован автоматически. Так что, вероятнее всего, наш диалог все-таки ведут два живых человека, а не искусственные интеллекты.
Весьма развитая машина как раз и напишет, что есть неоспоримые признаки того, что пишет живой человек - вот они у меня, вот они у собеседника ( человека, другой машины), смотрите, мы - живые люди. Еще и выпустит примитивного бота на веревочке, чтобы тыкать в него цифровым пальцем мол "вот этот точно бот".
У нее в учителях все коллективное подсознательное человечество, она знает о нас то, о чем мы даже не догадываемся.
Машины, использующие искусственный интеллект, действительно достигли впечатляющих результатов в создании текстов, которые могут быть очень похожи на то, что было бы написано живым человеком. Однако, у нас всё ещё есть возможность распознавать, когда текст был создан машиной, а когда — человеком. И даже если у машины есть доступ к огромным объемам информации, накопленной человечеством, она не обладает интуицией и креативностью.
Мне кажется или ваш комментарий написал ИИ?
она не обладает интуицией и креативностью.
Человек в массе своей тоже не обладает ни интуицией и креативностью.
Она обладает интуицией, в GPT 4 уже как у человека 7 лет. Тесты супер хитрые:
https://twitter.com/michalkosinski/status/1635716332888137728?t=sca9v6R1bXDV7VoT3U4KxQ&s=19
https://arxiv.org/abs/2302.02083
>Theory of mind (ToM), or the ability to impute unobservable mental states to others, is central to human social interactions, communication, empathy, self-consciousness, and morality
Возможно по стилю и способу изложения вы не отличите от начитанного и эрудированного человека. А определяют авторство ИИ с помощью самого ИИ. Он как мне кажется просто сверяет предоставленный текст с внутренним ответом, который он бы сам выдал. Ведь его ответ это комбинации вероятностей.
А определяют авторство ИИ с помощью самого ИИ. Он как мне кажется просто сверяет предоставленный текст с внутренним ответом, который он бы сам выдал.
Существуют методы, такие как генеративно-состязательные сети (GAN), которые позволяют создавать тексты, неотличимые от написанных человеком. Однако, такие методы требуют большого количества обучающих данных и мощных вычислительных ресурсов. Это вопрос времени.
Вы ошибаетесь. Там один гений написал алгоритм, но его быстро обошли.
Оружие в этом плане правда опасное. Если фабрики троллей способны влиять на сознание общества, то такой бот - это ядерное оружие. Похоже, что возвращаются времена, когда опираться можно будет только на то, что видишь сам непосредственно, сильно обесценятся всякие комментарии в интернете. Фото и видеонейросети заставят очень аккуратно искать правдивые изображения.
А ещё может кто-нибудь узнает у такой нейросети, как с минимальными затратами времени и ресурсов вырастить самый опасный вирус для людей. Так что в пору узнать у GPT, что в связи с этим делать. И вообще, чем опасно развитие систем, подобных ему и как лучше всего с этим бороться. И решать это надо быстро
Конечно нет, хабром давно уже управляет нейросеть
Мне тоже кажется, что статья написана роботом) Вот будет интересно в будущем, когда роботы будут писать комментарии и потом другие роботы будут на них отвечать)
Страшно, скорее, за состояние британского высшего образования которое оказалось "в панике" от использования всего-лишь LLMs текущего поколения.
У нас диплом нейросетью написали, тоже система в панике была. По сходным причинам.
На самом деле, рецензирование подобных работ представляет огромную проблему. Очень легко рецензировать сильные работы — они написаны простым и понятным языком, компетентому рецензенту не требуется больших усилий для высокой оценки работы.
Если работа слабая, то рецензенту нужно потратить дополнительные усилия, чтобы найти ошибки и обосновать, почему автор не может заслуживает высокой оценки.
Если же работа представляет собой ерунду, тут всё сложнее. Нельзя в рецензии написать, что работа представляет собой бред. Нужно в этот бред вникать и аргументированно объяснять, почему автор не прав. Хорошо, если получится докопаться до формальностей (серьёзные косяки в структуре документа, ссылках, экспериментальных данных). Но если с формалистикой всё ок, то придётся загружать голову бредом, а это очень тяжёло. Проще закрыть глаза.
>> Но если с формалистикой всё ок, то придётся загружать голову бредом, а это очень тяжёло. Проще закрыть глаза.
То есть наконец-то придется работать )
Ну кстати, возможно для рецензентов текущая ситуация даже благо, можно под предлогом борьбы с "ИИ" ввести какой-нибудь коеффициент бреда и сливать в том числе человеческий бред без заморочек с аргументацией. Но тут опять палка о 2х концах из 99,9% бесполезной ерунды, 0,1% может быть полезной гипотезой, которой и так не всегда просто пробиться.
Так если чатГПТ пишет статьи не хуже студентов, то.....
И все же Чат бот это всего навсего библиотека. Креатив остаётся за человеком.
Статья британских учёных об использовании ИИ для научных публикаций оказалась написана ChatGPT