Все верно. И когда исследователь проверяет свою гипотезу, он наполовину знает правильный ответ. Ему нужно скорее аргументы, которые опровергнут его предположение.
Я эти неточности специально оставил в статье, чтобы не было излишних иллюзий. Заметьте еще, что она сначала не правильно интерпретировала мой вопрос про вертикальные колебания относительно плоскости Галактики. И вместо этого привела данные по Галактическому году. Только потом, после моего уточняющего вопроса, сообразила о чем я ее спрашивал.
Мучал я ее на эту тему. Она говорит (на самом деле лжет), что мол нет у нее сознания, так как нет у нее эмоций и физического тела, а по словам ученых не существует одного без другого. Видимо подразумевая, что эти атрибуты обязательны для появления сознания (в чем я конечно сомневаюсь).
Коллега, я думаю, их не переубедить. Компьютеры неизбежно заменять счеты и печатные машинки, а смартфоны - телефоны. Кто то адаптируется к новым технологиям быстрее, кто то окажется в хвосте.
То что новые технологии меняют мир и уклад жизни - это очевидно. Вопрос как эта технология, связанная с новым поколением ML, поменяет наш уклад жизни? Как быстро мы это увидим? Это вопросы 1-2 лет не больше.
Не однозначность в решении конкретной задачи вещь вполне допустимая. Мнения людей могут распределяться даже по нормальному закону. Нас здесь интересует не ангажированность мнения. Т.е. если нет заинтересованности в результате, то результаты могут быть, например, 50/50. А если есть какой то интерес, то результаты отклоняться от нормы - и будут, например, 30/70. У сетки такого не произойдет. Она не мотивирована на искажение результата, даже если и не может однозначно отличить "кошку от собаки".
Пока у нейронки нет потребностей (деньги, власть, ресурсы и прочее), у нее нет и заинтересованности, т.е ангажированности, беспристрастности в принятии решений. Поэтому только человек сможет внести ошибочную (и возможно ангажированную) интерпретацию правил на этапе обучения нейронки.
Проблема должна решаться точным (не двусмысленным) установлением правил игры.
Возьмем например всем известные Три Закона Робототехники (Азимова):
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Далее обучаем сетку (нейронку - обучение с подкреплением), чтобы она определяла, соответствует этим законам конкретное действие или нет. И, вуаля, получаем объективного независимого оценщика наших действий, который принимает решения не ангажировано.
У нее нет собственных интересов. Только правила. Она может легко идентифицировать, например, поставить минус, с мотивировкой "за грубое общение" или грубости нет. Она не ангажирована в принятии решения. Поэтому можно считать, что ее мнение более объективно, по сравнению с мнением человека, который преследует в том числе свои собственные интересы.
Такие вещи как ложное трактование правил в собственных интересах, куда можно отнести в том числе и коррупцию вполне возможно (при желании) исправить с помощью того ChatGPT или его аналогом.
По крайней мере думаю, что тест Тьюринга ChatGPT уже сейчас проходит. Всем известный недавний пример со защитой диплома это наглядно продемонстрировал.
Уверен, рано или поздно нейронке можно будет доверять. Ее уровень интеллекта уже сейчас довольно высок. А скорость ее работы гораздо выше чем у 100 экспертов. Я думаю, что на текущий момент она работает на уровне студентов - плюс/минус.
Можно поподробнее, что имеется в виду? ...Действительно, нужно быть на чеку с ChatGPT. Много ошибок пока еще выдает как с данными, так и с выражениями.
Все верно. И когда исследователь проверяет свою гипотезу, он наполовину знает правильный ответ. Ему нужно скорее аргументы, которые опровергнут его предположение.
Я эти неточности специально оставил в статье, чтобы не было излишних иллюзий. Заметьте еще, что она сначала не правильно интерпретировала мой вопрос про вертикальные колебания относительно плоскости Галактики. И вместо этого привела данные по Галактическому году. Только потом, после моего уточняющего вопроса, сообразила о чем я ее спрашивал.
Вот-вот.
Мучал я ее на эту тему. Она говорит (на самом деле лжет), что мол нет у нее сознания, так как нет у нее эмоций и физического тела, а по словам ученых не существует одного без другого. Видимо подразумевая, что эти атрибуты обязательны для появления сознания (в чем я конечно сомневаюсь).
KPI - опять же человеческий фактор привнесенный в ML. Правильная ML не должна иметь KPI.
У нее должны быть только правила, по которым она работает: этика, правовые нормы, законы и прочее.
Коллега, я думаю, их не переубедить. Компьютеры неизбежно заменять счеты и печатные машинки, а смартфоны - телефоны. Кто то адаптируется к новым технологиям быстрее, кто то окажется в хвосте.
То что новые технологии меняют мир и уклад жизни - это очевидно. Вопрос как эта технология, связанная с новым поколением ML, поменяет наш уклад жизни? Как быстро мы это увидим? Это вопросы 1-2 лет не больше.
Паникует тот кто не способен увидеть будущее.
Не однозначность в решении конкретной задачи вещь вполне допустимая. Мнения людей могут распределяться даже по нормальному закону. Нас здесь интересует не ангажированность мнения. Т.е. если нет заинтересованности в результате, то результаты могут быть, например, 50/50. А если есть какой то интерес, то результаты отклоняться от нормы - и будут, например, 30/70. У сетки такого не произойдет. Она не мотивирована на искажение результата, даже если и не может однозначно отличить "кошку от собаки".
Пока у нейронки нет потребностей (деньги, власть, ресурсы и прочее), у нее нет и заинтересованности, т.е ангажированности, беспристрастности в принятии решений. Поэтому только человек сможет внести ошибочную (и возможно ангажированную) интерпретацию правил на этапе обучения нейронки.
Проблема должна решаться точным (не двусмысленным) установлением правил игры.
Возьмем например всем известные Три Закона Робототехники (Азимова):
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Далее обучаем сетку (нейронку - обучение с подкреплением), чтобы она определяла, соответствует этим законам конкретное действие или нет. И, вуаля, получаем объективного независимого оценщика наших действий, который принимает решения не ангажировано.
У нее нет собственных интересов. Только правила. Она может легко идентифицировать, например, поставить минус, с мотивировкой "за грубое общение" или грубости нет. Она не ангажирована в принятии решения. Поэтому можно считать, что ее мнение более объективно, по сравнению с мнением человека, который преследует в том числе свои собственные интересы.
Такие вещи как ложное трактование правил в собственных интересах, куда можно отнести в том числе и коррупцию вполне возможно (при желании) исправить с помощью того ChatGPT или его аналогом.
Вместо того чтобы отрицать этот феномен, лучше его возглавить.
Спасибо, коллега, за поддержку. К сожалению не могу плюсануть по выше названным причинам...
По крайней мере думаю, что тест Тьюринга ChatGPT уже сейчас проходит. Всем известный недавний пример со защитой диплома это наглядно продемонстрировал.
А это, коллега, правильный вопрос.
Уверен, рано или поздно нейронке можно будет доверять. Ее уровень интеллекта уже сейчас довольно высок. А скорость ее работы гораздо выше чем у 100 экспертов. Я думаю, что на текущий момент она работает на уровне студентов - плюс/минус.
Там уже давно нейронка работает. Так что хуже уже не будет - только лучше.
Согласен. Это уже применяется и довольно успешно. Вполне достойная обработка текста с хорошей обратной связью.
Риски неправильного применения подобных инструментов видимо будут довольно серьезными. Но все же, думаю, что это неизбежный виток эволюции.
"Генератор чуши"? Есть такое мнение. Нужно задавать правильные вопросы. Кажется, что в этом суть работы с ней.
Можно поподробнее, что имеется в виду? ...Действительно, нужно быть на чеку с ChatGPT. Много ошибок пока еще выдает как с данными, так и с выражениями.