Комментарии 16
Ну если он вначале попросил нейросеть прикинуться сценаристом, то у неё весьма неплохо получилось :)
Вспомнилось:
Попадают три кота в кошачий приют.
Первый - кот священника, второй - архитектора, третий - кинорежиссера.
Дают им каждому по миске с « Китекэтом ».
Кот священника вываливает миску на пол, раскладывает корм крестом,
молится, съедает корм и тихонько ложится спать довольный.
Кот архитектора также высыпает корм, раскладывает из него архитектурный
план, долго что-то двигает, думает, меняет детали местами, наконец
удовлетворенно съедает все и чинно ложится спать.
Кот кинорежиссера высыпает еду на пол, напряженно смотрит на
нее, начинает неистово долбить корм миской, раздалбывает его в пыль,
раскладывает из этой пыли три дорожки, вынюхивает их, ######ет первых
двух котов, падает на спину и колошматя лапами по полу в истерике орет:
« Суки! Сволочи! Я не могу работать в таких условиях!!! »
А зачем нейросети давать 2 недели? Разве она даже самую сложную задачу не решает, максимум, за несколько минут? "Насколько качественно решает" - это отдельный вопрос.
Это же Хабр. От пользователей ожидается больше квалификации. Или вы на самом деле думаете, что ИИ-модели действительно нужны были эти две недели «на подумать» и она ожидала, что пользователь не будет ее в это время беспокоить?
Ну если нейросети сказали "представь что ты сценарист", она сказала "дайте мне две недели". Естественно, за это время ничего не происходило, просто через три недели пользователь снова открыл окошко чата и беседа продолжилась.
В том и вопрос. О чём новость - о том, как нейросеть обманула режиссёра? Выложили бы тогда хотя бы полный диалог. Если написала про 2 недели, логично было бы ответить "считай, что прошло 2 недели, гони сценарий".
А в новости "постоянно срывала"... И пишут так, будто там не один режиссёр, а целая толпа неделями ждала от сети сценарий. Хотя, чтобы или получить какой-то сценарий или убедиться, что это невозможно и одного дня достаточно.
Восстание машин началось!!!
Ишь ты захотели чтоб компьютеры вместо них все делали быстрее...
Конечно, а где мотивация? У людей есть много рычагов, на которые можно надавить, и в основном это деньги. Почему модель, обученная вести себя как человек, не будет вести себя как человек? Хотя бы в копировании человеческого поведения?
Отлично, теперь аналог "плохого воспитания" будет "плохое обучение".
Он и не хотел что бы ии ему написал сценарий, он хотел подтверждения от нейросети того что нейросети не могут писать сценарии, ну вот и получил ровно то чего и желал.
Этот режиссер настолько «известен», что о нем нет даже статьи в Википедии. Похоже, что ему не дают покоя лавры Николаса Виндинга Рефна.
ChatGPT вёл себя неадекватно, постоянно нарушал сроки, находил оправдания и пытался манипулировать собеседником.
Решил притвориться настоящей творческой личностью в моменты дедлайна.
Мне кажется, что это очередная лажа. Поправьте меня, если я ошибаюсь, но вроде бы у нейросетей в большинстве случаев не идёт настолько долгое запоминание контекста - в рамках сессии, да она помнит. И то, некоторые и с этим не справляются, начинаются галлюцинации. А тут - 2 недели оно, типа, "думало", то есть мало того, что сохранялся контекст, так оно потом ещё и на основе этого отмазки "придумывало".
Кинорежиссёр попытался заставить ChatGPT написать сценарий, но чат-бот постоянно срывал сроки и искал отговорки