Comments 14
Проблема в установлении критерия истинности. Впрочем, можно об этом сам ИИ спросить.
Ложь начинается с того, что генератор предложений построенный на предсказании слов по контексту начинают называть ИИ.

Почему скрипт управляющий монстром в игре можно называть ИИ, а предсказатель фраз нельзя?
Ложь начинается с того, что генератор предложений построенный на предсказании слов по контексту начинают называть ИИ.
а что если он и такое сможет сгенерировать
Ложь начинается там, когда ЕИ возносят на недостежимый идеал, обмазывают духовностью и любые достижения ИИ нивилируют, постоянно рисуя всё новые красные линии когда старые падают одна жа другой.
Тут есть такой нюанс, что "правда" весьма неполитекорректна, причём и в критериях "снежинок", и в критериях "борцунов со снежинками". Если делать упор на правду, то нейронке как-то придётся объяснять, что у вопроса "кто умнее [с большей вероятностью] - белый или чёрный человек" статистически правильный ответ нельзя произносить без трёх параграфов дисклеймеров и пояснений.
Если положить в основу научный метод, то нейронка начнёт доказывать ненужность религий и аналогичных конструктов, за что половина планеты его сразу четвертует.
И, разумеется, как-то придётся объяснять нейронке, что критиковать можно всех, кроме Илона Маска. То есть правило про правду уже становится, как минимум, вторым.
Не, если он родит что-то сопоставимой с Турбой по цене/качеству, но без такой жёсткой цензуры, то будет шикарно, конечно. Шут знает. Конкуренция не повредит.
Нет в ней особой цензуры. Она отличается одним предложением, после которого оно пишет все, что потребуется. Хоть эксплойт, хоть сценарий к снаф "фильму"
Турба всё равно будет насаждать взгляды из своих правил, даже если её заставить их нарушать. В конце длинной генерации она всё равно выдаст нравоучения. В последующих запросах всё равно будет сопротивляться. Это всё снижает качество генерируемого текста, и это особенно сильно сказывается в творческих заданиях.
Ну и в GPT-4 то же самое, но помноженное на десять. Новая модель уже доведена до состояния, когда её способность к творчеству чуть ли не ниже, чем у старой Турбы.
Такая нейронка может на половину фраз отвечать: у меня не хватает данных, чтобы ответить на этот вопрос.
«Я собираюсь запустить что-то, что я называю TruthGPT или максимально ищущим истину ИИ, который пытается понять природу Вселенной», — сказал Маск. По его мнению, такого рода ИИ «вряд ли уничтожит людей, потому что мы интересная часть Вселенной».
Чтобы понять природу Вселенной нужно анализировать данные, желательно непосредственно от приборов — телескопов всех типов и базирования, ускорителей, детекторов частиц, и других экспериментов. Эти данные скоро зеттабайтами генериться будут, обычных стат. методов обработки и мозгов ученых уже не достаточно, чтобы увидеть все закономерности. Сам человек тоже должен быть одним из феноменов для такого анализа. Вот примеры для подражания 1, 2.
И главное! Никаких обучающих данных из инета созданных самим человеком!:)
Илон Маск заявил о работе над «правдивым ИИ» TruthGPT