Действительно, в истории масса исключений, когда перспективные изобретения оказались пустышкой или приносили вред, а польза других была неочевидна.
Поэтому пишем в статье:
Зачастую даже сами ученые не могут представить себе будущее своего изобретения и то, как люди его используют. Так что влияние технологии на мир – будет ли оно положительным, отрицательным или вообще незаметным – часто проявляется только со временем.
Как уже отметили выше, может показаться, что в статье LLM приравнивается к изобретениям, перевернувшим мир в лучшую сторону. Однако в первую очередь речь идет о технологиях, которые сильно меняют привычный уклад жизни. А тот факт, что с релизом первой версии ChatGPT поменялось многое – в обработке данных, способах выполнения рутинных рабочих дел и пр. – на наш взгляд, кажется уже неоспоримым.
А касательно “обещанных эффективных, безопасных и легальных препаратов для расширения сознания” – возможно, они уже есть, но недоступны нам? Или мы пока не знаем о них 🙂
Да, действительно, во многом приравняли LLM к изобретениям, перевернувшим мир, но подвергавшимся критике. Здесь под “важными изобретениями” понимаем необязательно “хорошее, доброе и светлое”, речь скорее о технологиях, которые сильно меняют привычный уклад жизни.
И действительно, LLM невозможно отнести к настоящему “интеллекту” по причинам, которые указаны в статье, так что мы не стремимся оценивать практику обращаться к ИИ как к другу или психологу. Тут скорее важно подчеркнуть, что может произойти, когда ненастроенная на такие задачи система будет их выполнять.
Пожалуй, несмотря на все минусы такого общения, люди всё равно будут к нему прибегать. Среди причин могут быть одиночество, нежелание тратить средства на психолога и как раз отсутствие критики у нейросети, ведь не всеми идеями и помыслами человек может поделиться с другим человеком. Поэтому, на наш взгляд, важно знать и помнить об ограничениях ИИ и правилах безопасности. И пока настоящей, формально закрепленной ответственности за такие случаи ни у кого нет, есть смысл проводить эти ограничения и формулировать правила безопасности самостоятельно.
И большое спасибо за упоминание LBS и CESP. Так или иначе, умеющие масштабироваться системы часто выигрывают там, где дело касается монетизации, потому что их можно применить массово. И это необязательно плохо, ведь в теории цель и миссия LLM очень даже благая.
Под багом в статье понимаются причины, по которым нейросеть в ответ на нелогичные запросы, а также связанные с мистикой или чем-то другим, неподтвержденным наукой, поддерживает или поддерживала пользователей. Потому что уверены, что создатели LLM этого не планировали.
Если докопаться до сути, можно обнажить конкретные проблемы LLM, которые и заставляют ее вести себя неконтролируемым образом. В некоторых источниках часто указывается такая проблема, как ориентация на позитивный фидбек от пользователей и “галлюцинирование” языковых моделей (https://openai.com/index/why-language-models-hallucinate/).
Де факто, чистой «органической выдачи» уже не существует. Под ней принято понимать то, что поисковик ранжирует исходя из своих алгоритмов. Далее следует, что в контексте работы с органической выдачей также применимы стратегии и тактики, чтобы алгоритмы лучше ранжировали то, что хочет компания.
Никто при этом не говорит, что нужно делать плохие тексты ради выдачи (ну, по крайней мере, мы, не говорим)
Смысл в том, что выдача так или иначе учитывает эти факторы, а вот учитываете ли их ВЫ - это другой вопрос 🙂
Действительно, в истории масса исключений, когда перспективные изобретения оказались пустышкой или приносили вред, а польза других была неочевидна.
Поэтому пишем в статье:
Как уже отметили выше, может показаться, что в статье LLM приравнивается к изобретениям, перевернувшим мир в лучшую сторону. Однако в первую очередь речь идет о технологиях, которые сильно меняют привычный уклад жизни. А тот факт, что с релизом первой версии ChatGPT поменялось многое – в обработке данных, способах выполнения рутинных рабочих дел и пр. – на наш взгляд, кажется уже неоспоримым.
А касательно “обещанных эффективных, безопасных и легальных препаратов для расширения сознания” – возможно, они уже есть, но недоступны нам? Или мы пока не знаем о них 🙂
Да, действительно, во многом приравняли LLM к изобретениям, перевернувшим мир, но подвергавшимся критике. Здесь под “важными изобретениями” понимаем необязательно “хорошее, доброе и светлое”, речь скорее о технологиях, которые сильно меняют привычный уклад жизни.
И действительно, LLM невозможно отнести к настоящему “интеллекту” по причинам, которые указаны в статье, так что мы не стремимся оценивать практику обращаться к ИИ как к другу или психологу. Тут скорее важно подчеркнуть, что может произойти, когда ненастроенная на такие задачи система будет их выполнять.
Пожалуй, несмотря на все минусы такого общения, люди всё равно будут к нему прибегать. Среди причин могут быть одиночество, нежелание тратить средства на психолога и как раз отсутствие критики у нейросети, ведь не всеми идеями и помыслами человек может поделиться с другим человеком. Поэтому, на наш взгляд, важно знать и помнить об ограничениях ИИ и правилах безопасности. И пока настоящей, формально закрепленной ответственности за такие случаи ни у кого нет, есть смысл проводить эти ограничения и формулировать правила безопасности самостоятельно.
И большое спасибо за упоминание LBS и CESP. Так или иначе, умеющие масштабироваться системы часто выигрывают там, где дело касается монетизации, потому что их можно применить массово. И это необязательно плохо, ведь в теории цель и миссия LLM очень даже благая.
Под багом в статье понимаются причины, по которым нейросеть в ответ на нелогичные запросы, а также связанные с мистикой или чем-то другим, неподтвержденным наукой, поддерживает или поддерживала пользователей. Потому что уверены, что создатели LLM этого не планировали.
Если докопаться до сути, можно обнажить конкретные проблемы LLM, которые и заставляют ее вести себя неконтролируемым образом. В некоторых источниках часто указывается такая проблема, как ориентация на позитивный фидбек от пользователей и “галлюцинирование” языковых моделей (https://openai.com/index/why-language-models-hallucinate/).
Ее мы и назвали багом. Конечно, напрямую к разводу, как и к предложению напасть на своего отца он не ведет, но может поддерживать болезненные убеждения, которые для людей с чувствительной психикой опасны (как, например, недавний пугающий случай с сотрудником Yahoo: https://iz.ru/1945555/2025-08-30/v-ssa-chatgpt-podtolknul-eks-sotrudnika-yahoo-ubit-mat-i-pokoncit-s-soboi).
Де факто, чистой «органической выдачи» уже не существует. Под ней принято понимать то, что поисковик ранжирует исходя из своих алгоритмов.
Далее следует, что в контексте работы с органической выдачей также применимы стратегии и тактики, чтобы алгоритмы лучше ранжировали то, что хочет компания.
Никто при этом не говорит, что нужно делать плохие тексты ради выдачи (ну, по крайней мере, мы, не говорим)
Смысл в том, что выдача так или иначе учитывает эти факторы, а вот учитываете ли их ВЫ - это другой вопрос 🙂
Англоязычную версию не планировали. Ничего против поста на реддите не имеем, главное ссылочки на источник и на хантера оставьте в нем.