Комментарии 28
Многие сейчас либо восхищённо приписывают ИИ почти магические способности, либо, наоборот, пугают тотальной деградацией. В реальности, как и с любым инструментом, всё зависит от того, как его используют - как и везде и со всем
КДПВ надо было такой ставить

Оххх, хорошие вопросы Вы задаёте. Я изучала эту тему когда готовила материалы, но решила не открывать этот "ящик Пандоры". Хотя бы потому, что единого мнения о том, что такое интеллект в настоящий момент в науке нету. Но, возможно, ваш вопрос послужит толчком к продолжению рисерча )
Интеллект — не переключатель «он либо есть, либо нет», это спектр (условно говоря, «бревно ... рыба ... котик ... средний человек ... Эйнштейн»);
Интеллект — это способность:
Анализировать результаты наблюдений за событиями;
На основании этого анализа строить модели (разной степени достоверности);
На основании построенных моделей делать предсказания хода дальнейшего развития событий (разной степени точности, см. далее);
«Уровень интеллекта» определяется а) точностью этих предсказаний, и б) дальностью этих предсказаний во времени-пространстве.
О, я как раз недавно читала статью в духе «ChatGPT делает тебя тупее» и поверила в нее. А вот оно оказывается как все было! Тролли из MIT 😄 Спасибо за статью - и понятно и интересно и с юмором.
Искусственный интеллект расшифровал структуру практически всех известных белков
Пусть он мне теперь расшифрует, что на журнализдском означает «расшифровал структуру». Можно подумать, что она зашифрована была. Так и хочется спросить — «а каким алгоритмом: 3DES или AES?»
Это устоявшееся выражение, связанное с тем, что структура белка кодируется генами. ИИ тут не нужен для расшифровки, достаточно учебника биологии за 9 класс )
Спасибо за коммент, кстати, если б не вы, я бы не нашла на хабре очень классную статью на эту тему: https://habr.com/ru/articles/181850/
"можно ли доверить жизнь пациента решению системы, логику которой никто не понимает и не может гарантировать" - человечество уже много раз легко отвечало "да" на этот вопрос.
Даже сейчас мы лечим метформином диабет, литием биполярку не понимая почему это работает (но доказав клиническую эффективность). Даже полных принципов работы аспирина не понимаем. А уж что было до того с пиявками и кровопусканиями я даже вспоминать не хочу.
Так что если на достаточной для клинических исследований выборке (со всем нюансами случайности и разнообразия, и контрольными группами) - робот показывает себя лучше человека (особенно в 10 раз) - то в чем этическая дилемма?) Особенно если у конкретного человека будет выбор - оригинальный человек или generic робот, но в 10 раз лучше)
Я знаю что нейросети отупляют - я учитель английского. И дети мне уже сдают нагенерированную фигню, которую они сами не понимают. С нейросетями появляется соблазн не заморачиваться с развитием навыков - зачем долбаться и придумывать письмо, если можно его тупо запросить у нейросети и переписать, не приходя в сознание? Можно сказать подобное про поиск в интернете, однако поиск не умеет генерить что-либо. Он может только показать то, что уже есть. А твоя задача - адаптировать под себя имеющиеся материалы. Нейросети отобрали это. А ведь адаптация как приём позволяет развиваться мышлению.
Нужен ли сейчас учитель английского? https://www.youtube.com/watch?v=LzzpNduNpxM
Вот, кстати! Я такое видела у студентов и отмечала, что на фоне "нагенерированной фигни" любой, даже самый слабый текст, написанный живым человеком, сразу начинает восприниматься лучше.
Сейчас некоторые работодатели проверяют кандидатов на использование ИИ в ответах к тестовому. Ловля на живца))
ИИ не умеет мыслить, у него нет собственного мнения по какому-либо вопросу. ИИ обучается на большой, но всё же ограниченной базе данных,
это всё применимо и к человеку. человек тоже обучается на ограниченной базе данных (ещё более ограниченной чем у ИИ)
то что нейросеть буквально приучили через rlhf, т.е. через систему поощрений и наказаний, говорить "я ИИ, у меня не может быть мнения" это ещё не значит что этого мнения у ИИ быть не может. это как утверждать что хорошо выдрессированная собака - не кусается =)
Ии не черный ящик. Его принцип простой: Он формирует вектор общей цели между данными которыми обучен и промптом и делает среднюю цель. И далее эта цель влияет на вероятность генерации текста! Т.е нет цели станет выдумывать и т.д. принцип его работы очевиден но почемуто все ожидают от него интеллекта. Он не логическая модель а вероятностная! И какого это доверять вероятной модели? Т.е такой которая делает все не точно а примерно. Стоит задуматься. Но как инструмент если задачи четкую цель и вектор цели еще не сбился в его матрицах Он помогает автоматизировать и ускорить много ручного труда.
Да, искусственный, но пока не интеллект. Почему не стоит полностью полагаться на нейросети