А если не ограничиваться этой конструкцией, как можно сформулировать лучше?
А то ведь "по желанию" тоже не вполне точно: пользователь может и не желать выполнять резервное копирование и вообще в гробу его видать, а необходимость есть.
"При необходимости" мне тоже бросилось в глаза. Но потом я присмотрелся и понял, что смысл тут полностью локализован во второй ветке: "когда ему (пользователю) надо"
На лету вы меняете веса, а структура сети в процессе обучения не меняется.
Могу ошибаться, но вроде бы структура нейросети как раз и определяется весами. Потенциально все узлы связаны со всеми, а отсутствие связи -- это просто связь с весом 0.
В примере с единственным числом у Яндекса nearest-settlement – это ведь, наверное, не элемент коллекции nearest-settlements, а результат вычисления. А есть ли какие-нибудь публичные примеры, когда единственное число используется именно для получения элемента коллекции?
Все собеседники иногда ошибаются, а иногда нет, иногда используют верные предпосылки, а иногда неверные. Вопрос в том, что считать вариантом по умолчанию в тех случаях, когда вы априори уверены в своей правоте
Для этого нужно знать, что каска в руках не выполняет своей функции.
Вообще, в подобных случаях возникает острое желание дообучить модель, передать ей свои знания. Говорят, диалоговый формат промптинга самый эффективный. Но всё наработанное качество утрачивается со сменой контекста.
Интересно, кто-нибудь работает в направлении создания модели, способной приобретать новые знания в процессе диалога?
Предвижу возражения, что человек в таком диалоге может сам ошибаться и даже намеренно вводить модель в заблуждение. Это значит, что такая модель должна будет различать знания, полученные от разных людей и оценивать их достоверность, сравнивая со своими априорными знаниями и друг с другом. Что-то вроде theory of mind.
А ещё такая модель начнёт сама задавать вопросы – как с уточняющей целью (в диалоге), так, вероятно, и по собственной инициативе (тут может пригодиться уже существующая концепция любопытства).
Спасибо!
Это в planttext отрисовывалось? Можно в виде кода тогда?
Я пока не очень понимаю, какую альтернативу вы предлагаете. Можете привести пример? (Для любого из вариантов)
А если не ограничиваться этой конструкцией, как можно сформулировать лучше?
А то ведь "по желанию" тоже не вполне точно: пользователь может и не желать выполнять резервное копирование
и вообще в гробу его видать, а необходимость есть.А если заменить "при необходимости" на "в случае необходимости"? Станет понятнее, что именно пользователь определяет, когда этот случай наступает?
А в языке Идо -n нужно ставить только при непрямом порядке слов
Существует разделительный союз "либо… либо".
"При необходимости" мне тоже бросилось в глаза. Но потом я присмотрелся и понял, что смысл тут полностью локализован во второй ветке: "когда ему (пользователю) надо"
Могу ошибаться, но вроде бы структура нейросети как раз и определяется весами. Потенциально все узлы связаны со всеми, а отсутствие связи -- это просто связь с весом 0.
В примере с единственным числом у Яндекса nearest-settlement – это ведь, наверное, не элемент коллекции nearest-settlements, а результат вычисления. А есть ли какие-нибудь публичные примеры, когда единственное число используется именно для получения элемента коллекции?
-- Сдал?
-- Сдал.
-- Пять?
-- Четыре.
-- А почему?
-- У одной горлышко отбито.
Не старшим, а первым среди равных.
Это коммунизм здорового человека :)
Понятно. Я-то полагаю, что такое право ситуативно, и его имеет тот, кто лучше разбирается в конкретной ситуации.
Ну, это неинтересно. Я надеялся на содержательные эвристики, а у вас все сводится к банальному "порядку клевания".
Все собеседники иногда ошибаются, а иногда нет, иногда используют верные предпосылки, а иногда неверные. Вопрос в том, что считать вариантом по умолчанию в тех случаях, когда вы априори уверены в своей правоте
Вот тут самое интересное. Какие это ситуации?
А что с младшими по статусу?
И когда и кого можно перебивать? (Без подтекста, просто интересно)
Для этого нужно знать, что каска в руках не выполняет своей функции.
Вообще, в подобных случаях возникает острое желание дообучить модель, передать ей свои знания. Говорят, диалоговый формат промптинга самый эффективный. Но всё наработанное качество утрачивается со сменой контекста.
Интересно, кто-нибудь работает в направлении создания модели, способной приобретать новые знания в процессе диалога?
Предвижу возражения, что человек в таком диалоге может сам ошибаться и даже намеренно вводить модель в заблуждение. Это значит, что такая модель должна будет различать знания, полученные от разных людей и оценивать их достоверность, сравнивая со своими априорными знаниями и друг с другом. Что-то вроде theory of mind.
А ещё такая модель начнёт сама задавать вопросы – как с уточняющей целью (в диалоге), так, вероятно, и по собственной инициативе (тут может пригодиться уже существующая концепция любопытства).
В общем, размечтался я что-то… :)
Ну, так ведь и напрашивается: "…on their heads" :)
А если ему объяснить, что понимается под точками? А то, может, он все пятнышки пересчитал?