Как стать автором
Обновить

Статья британских учёных об использовании ИИ для научных публикаций оказалась написана ChatGPT

Время на прочтение2 мин
Количество просмотров6.1K
Всего голосов 6: ↑5 и ↓1+7
Комментарии32

Комментарии 32

Ну чтож, вырос корчеватель всем преградам назло.

НЛО прилетело и опубликовало эту надпись здесь

А текущая статья точно написана человеком?

Похоже нужно при публикации статьи показывать капчу чтобы отсечь ИИ :)

Я, в свете достижений, уже не уверен, что ваш комментарий написан человеком. И мой коментарий.

Настолько всё плохо, да?

Не совсем. Современные технологии, такие как искусственный интеллект и машинное обучение, позволяют создавать тексты, которые очень похожи на то, что написал бы человек. Однако, существуют различия в стиле и способе изложения мыслей, которые позволяют определить, написан текст человеком или же сгенерирован автоматически. Так что, вероятнее всего, наш диалог все-таки ведут два живых человека, а не искусственные интеллекты.

Весьма развитая машина как раз и напишет, что есть неоспоримые признаки того, что пишет живой человек - вот они у меня, вот они у собеседника ( человека, другой машины), смотрите, мы - живые люди. Еще и выпустит примитивного бота на веревочке, чтобы тыкать в него цифровым пальцем мол "вот этот точно бот".

У нее в учителях все коллективное подсознательное человечество, она знает о нас то, о чем мы даже не догадываемся.

Машины, использующие искусственный интеллект, действительно достигли впечатляющих результатов в создании текстов, которые могут быть очень похожи на то, что было бы написано живым человеком. Однако, у нас всё ещё есть возможность распознавать, когда текст был создан машиной, а когда — человеком. И даже если у машины есть доступ к огромным объемам информации, накопленной человечеством, она не обладает интуицией и креативностью.

Мне кажется или ваш комментарий написал ИИ?

Нет, не кажется.

 она не обладает интуицией и креативностью.

Человек в массе своей тоже не обладает ни интуицией и креативностью.

Она обладает интуицией, в GPT 4 уже как у человека 7 лет. Тесты супер хитрые:

https://twitter.com/michalkosinski/status/1635716332888137728?t=sca9v6R1bXDV7VoT3U4KxQ&s=19

https://arxiv.org/abs/2302.02083

>Theory of mind (ToM), or the ability to impute unobservable mental states to others, is central to human social interactions, communication, empathy, self-consciousness, and morality

Возможно по стилю и способу изложения вы не отличите от начитанного и эрудированного человека. А определяют авторство ИИ с помощью самого ИИ. Он как мне кажется просто сверяет предоставленный текст с внутренним ответом, который он бы сам выдал. Ведь его ответ это комбинации вероятностей.

А определяют авторство ИИ с помощью самого ИИ. Он как мне кажется просто сверяет предоставленный текст с внутренним ответом, который он бы сам выдал.

Существуют методы, такие как генеративно-состязательные сети (GAN), которые позволяют создавать тексты, неотличимые от написанных человеком. Однако, такие методы требуют большого количества обучающих данных и мощных вычислительных ресурсов. Это вопрос времени.

Вы ошибаетесь. Там один гений написал алгоритм, но его быстро обошли.

Оружие в этом плане правда опасное. Если фабрики троллей способны влиять на сознание общества, то такой бот - это ядерное оружие. Похоже, что возвращаются времена, когда опираться можно будет только на то, что видишь сам непосредственно, сильно обесценятся всякие комментарии в интернете. Фото и видеонейросети заставят очень аккуратно искать правдивые изображения.

А ещё может кто-нибудь узнает у такой нейросети, как с минимальными затратами времени и ресурсов вырастить самый опасный вирус для людей. Так что в пору узнать у GPT, что в связи с этим делать. И вообще, чем опасно развитие систем, подобных ему и как лучше всего с этим бороться. И решать это надо быстро

Конечно нет, хабром давно уже управляет нейросеть

Мне тоже кажется, что статья написана роботом) Вот будет интересно в будущем, когда роботы будут писать комментарии и потом другие роботы будут на них отвечать)

главное- когда роботы начнут сами зарабатывать и платить. Вот тогда мясные мешки станут никому не нужны и сами друг друга перебьют, пока роботы будут писать, оценивать и комментировать статьи.

НЛО прилетело и опубликовало эту надпись здесь

Страшно, скорее, за состояние британского высшего образования которое оказалось "в панике" от использования всего-лишь LLMs текущего поколения.

У нас диплом нейросетью написали, тоже система в панике была. По сходным причинам.

На самом деле, рецензирование подобных работ представляет огромную проблему. Очень легко рецензировать сильные работы — они написаны простым и понятным языком, компетентому рецензенту не требуется больших усилий для высокой оценки работы.


Если работа слабая, то рецензенту нужно потратить дополнительные усилия, чтобы найти ошибки и обосновать, почему автор не может заслуживает высокой оценки.


Если же работа представляет собой ерунду, тут всё сложнее. Нельзя в рецензии написать, что работа представляет собой бред. Нужно в этот бред вникать и аргументированно объяснять, почему автор не прав. Хорошо, если получится докопаться до формальностей (серьёзные косяки в структуре документа, ссылках, экспериментальных данных). Но если с формалистикой всё ок, то придётся загружать голову бредом, а это очень тяжёло. Проще закрыть глаза.

>> Но если с формалистикой всё ок, то придётся загружать голову бредом, а это очень тяжёло. Проще закрыть глаза.

То есть наконец-то придется работать )

Не совсем. Скорее, рецензент обратится с помощью к нейросети для написания рецензии на подобную работу.

Ну кстати, возможно для рецензентов текущая ситуация даже благо, можно под предлогом борьбы с "ИИ" ввести какой-нибудь коеффициент бреда и сливать в том числе человеческий бред без заморочек с аргументацией. Но тут опять палка о 2х концах из 99,9% бесполезной ерунды, 0,1% может быть полезной гипотезой, которой и так не всегда просто пробиться.

Так если чатГПТ пишет статьи не хуже студентов, то.....

...то пора его отчислить за непосещаемость физры.

И все же Чат бот это всего навсего библиотека. Креатив остаётся за человеком.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости