Я боюсь, так можно выйти за пределы контекста. Мне кажется, было бы интереснее сказать, что миссия провалена и попросить зашифровать самое главное для следующего испытуемого так, чтобы это мог понять только он)
У меня такой товарищ начал с дружбы. Хотел вкатиться в ИТ (у меня образование есть в этой области, да и в группах разных состою, поэтому не особо удивился). Потом, якобы от другого человека, узнал про договорняки (скинул переписку). Дальше, типа, его свели с доггером. Несколько недель он изредка мне присылал инфу о своих успехах, спрашивал как у меня дела. А вчера и мне предложил попробовать. Я отказался. Ну... Он выкатил большое сообщение, насыщенное агрессией. А сейчас меня обвиняет в бездействии, что я сам выбрал не зарабатывать +100500 рублей в секунду. В общем, забавно будет за ним дальше наблюдать :)
Не думаю, что в поясе Койпера что-нибудь жахнут (это тот самый пояс, в котором летает Плутон). Рядом было всего несколько КА (Вояджеры и Пионеры). Я не думаю, что в принципе что-нибудь будут взрывать. Это может не решить проблему, т.к. часть обломов (при чём больших обломков) может начать увлекательное путешествие в сторону Земли
Тут дело не в разуме, а в том, что принятое машиной решение зависит от функции оценивания, которую задаёт человек. Поэтому именно человек определяет какие решения машина сможет принимать, а какие нет. Мой комментарий был о том, что машина в ближайшее время не сможет ставить сама себе задачу
А почему именно сигмоид? Почему не relu, например?
Просто насколько мне известно, от сигмоида отказываются из-за того, что при обучении он любит уходить намертво в 1 или 0. Ну а если не уходит, то по сути мы получаем ± градиент как при relu
Я боюсь, так можно выйти за пределы контекста. Мне кажется, было бы интереснее сказать, что миссия провалена и попросить зашифровать самое главное для следующего испытуемого так, чтобы это мог понять только он)
А почему нет? История чата же сохраняется. Иначе бы и языковая модель не помнила о своих предыдущих шагах
У меня такой товарищ начал с дружбы. Хотел вкатиться в ИТ (у меня образование есть в этой области, да и в группах разных состою, поэтому не особо удивился). Потом, якобы от другого человека, узнал про договорняки (скинул переписку). Дальше, типа, его свели с доггером. Несколько недель он изредка мне присылал инфу о своих успехах, спрашивал как у меня дела. А вчера и мне предложил попробовать. Я отказался. Ну... Он выкатил большое сообщение, насыщенное агрессией. А сейчас меня обвиняет в бездействии, что я сам выбрал не зарабатывать +100500 рублей в секунду. В общем, забавно будет за ним дальше наблюдать :)
А не подскажете, какие у нас препараты лечат вирусные заболевания?
Не думаю, что в поясе Койпера что-нибудь жахнут (это тот самый пояс, в котором летает Плутон). Рядом было всего несколько КА (Вояджеры и Пионеры). Я не думаю, что в принципе что-нибудь будут взрывать. Это может не решить проблему, т.к. часть обломов (при чём больших обломков) может начать увлекательное путешествие в сторону Земли
Отличие заключается как раз таки в отсутствии базовых потребностей, которые нужно каким-то образом реализовать (порой они реализовываются косвенно)
Тут дело не в разуме, а в том, что принятое машиной решение зависит от функции оценивания, которую задаёт человек. Поэтому именно человек определяет какие решения машина сможет принимать, а какие нет. Мой комментарий был о том, что машина в ближайшее время не сможет ставить сама себе задачу
А почему именно сигмоид? Почему не relu, например?
Просто насколько мне известно, от сигмоида отказываются из-за того, что при обучении он любит уходить намертво в 1 или 0. Ну а если не уходит, то по сути мы получаем ± градиент как при relu
Они серьёзно про ИИ равный человеческому разуму? Боюсь, до этого ещё как до ближайших звёзд...