в контексте авиации это не деталь тормоза. Это управляющий компонент аварийной остановки двигателя. В советской авиации эти рычаги называются именно «стоп кран».
Это общепринятое название для школы советского авиастроения, пример крайне неудачный
Кроме того gpt сети при генерации ответа должны выполнить некий объем вычислений чтобы получить правильный результат. gpt следует воспринимать как форму компилятора.
Для сложных задач потребуется длинный промпт и много много листов «автодополнения» прежде чем ответ будет получен.
Воспринимайте это как некий эмпирический закон, чтобы вычислить ответ на некий вопрос требуется затратить некое количество энергии(иначе np неравенство было бы уже опровергнуто).
Затраты энергии проявляются как число символов, которые выдала нейронка. Поэтому промпты для сложных задач должны заставлять нейронку затратить много энергии перед решением, или другими словами должны заставить нейронку напечатать полотна текста с ходом решения. Для очень сложных задач могут потребоваться сотни ответов сетки прежде чем решение будет получено
Это логично и интуитивно понятно из законов физики и информатики. Если бы это было не так, то gpt мог бы обращать хэш книги в книгу за один промпт, взламывать блокчейны и так далее
Кто понял о чём речь в этом комментарии сможет теперь правильно решить при помощи gpt задачу почти любой сложности(которую можно решить за обозримое время). Кто не понял продолжит пользоваться часто тупящей сеткой
в контексте авиации это не деталь тормоза. Это управляющий компонент аварийной остановки двигателя. В советской авиации эти рычаги называются именно «стоп кран».
Это общепринятое название для школы советского авиастроения, пример крайне неудачный
Кроме того gpt сети при генерации ответа должны выполнить некий объем вычислений чтобы получить правильный результат. gpt следует воспринимать как форму компилятора.
Для сложных задач потребуется длинный промпт и много много листов «автодополнения» прежде чем ответ будет получен.
Воспринимайте это как некий эмпирический закон, чтобы вычислить ответ на некий вопрос требуется затратить некое количество энергии(иначе np неравенство было бы уже опровергнуто).
Затраты энергии проявляются как число символов, которые выдала нейронка. Поэтому промпты для сложных задач должны заставлять нейронку затратить много энергии перед решением, или другими словами должны заставить нейронку напечатать полотна текста с ходом решения. Для очень сложных задач могут потребоваться сотни ответов сетки прежде чем решение будет получено
Это логично и интуитивно понятно из законов физики и информатики. Если бы это было не так, то gpt мог бы обращать хэш книги в книгу за один промпт, взламывать блокчейны и так далее
Кто понял о чём речь в этом комментарии сможет теперь правильно решить при помощи gpt задачу почти любой сложности(которую можно решить за обозримое время). Кто не понял продолжит пользоваться часто тупящей сеткой