Правильное понимание вероятно можно обеспечить контекстом, заранее заложенным в ИИ (fine tune или более какой там будет продвинутый будущий аналог) направлением работы компании, примеры предыдущих заказов и т.д., чтобы снизить число возможных вариантов при недосказанности. В конце концов, человек-работник же тоже может понимать якобы с полуслова, а на самом деле опираясь на уже отработанные в компании хорошие решения для реализации деталей большой задачи.
Речь про то, что нет причин, что нельзя научить ИИ делать всё, что может в разработке делать человек. Даже встречаться с заказчиками (пусть и не физически пока) для формирования задач на разработку. Разве что фуршет ИИ ниасилит )
Нет оснований полагать, что новая революция в разработке ПО пройдет по другому сценарию.
Не соглашусь, потому что до сих пор не было в истории аналогов появления сильного ИИ, или хотя бы сильного в области разработки программ - т.е. эффективной автоматизации мыслительной деятельности (а потенциально и мыслительной, и физической).
До сих пор лишь человек мог заниматься разработкой ПО. Сложность задач и, соответственно, самого ПО, росла, но, поскольку программируют люди, то их требовалось всё больше.
Когда же ИИ окажется способен сам разрабатывать ПО, по самым общим выданным ему техзаданиям, или даже вербальному описанию проблемы (и ожидаемо дешевле людей), то увеличения числа задействованных человеческих работников не будет необходимым, т.к. ИИ можно множить, сколько потребуется (и сколько хватит мощности, но вряд ли это будет ограничением надолго), а небольшое "количество" людей будут формулировать ему проблемы для решения.
Разумеется, это тоже предположение, но оно кажется более вероятным.
Автоматический голосовой перевод от Яндекса на русский весьма неплох, есть интонации, мужской и женский голоса. Со сложными видео сложнее, но для понимания большей части контента ИМХО этим можно пользоваться.
К сожалению, на один из первых же двух запросов (другой был нарисовать рисунок) GigaChat ответил неверно: "Что будет, если смешать растительное масло с водой в стакане?" - "Вода впитается в растительное масло.". Видимо, на "физический" здравый смысл данный ИИ ещё не допилен... А рисунок по запросу "Нарисуй, пожалуйста, улитку, едущую на слоне." выдал такой, своеобразный:
Для меня самый большой недостаток большинства механических клавиатур, особенно стоковых — их шумность (по сравнению, скажем, с ноутбучной ножничной), а выбор среди «silent» переключателей заметно меньше — чтобы и сила нажатия подходила, и тактильность (если нужна), и плавность. Вот и получается, что нужно брать «хот-свап» клавиатуру и вставлять туда предварительно смазанные, тщательно подобранные тихие переключатели.
А вот про сложность и эффективность памяти Caenorhabditis elegans поподробнее, пожалуйста. Если «память состоит из 1 нейрона, но участвуют больше», то это большее число нейронов нельзя просто взять и выкинуть из системы, не потеряв положительные свойства памяти, да? Тогда нельзя говорить, что такая эффективная память состоит всего из 1 нейрона.
И про эффективность, что имеется в виду? Во всяком случае, про естественное распараллеливание нейронных сетей в природе за счёт «аналоговых вычислений» и превосходство их в этом относительно нейросетей искусственных, где требуется многие GPU, либо TPU и т.д. + немалые ватты электроэнергии, известно. Но, несмотря на это, в го искусственная нейросеть всё равно смогла уверенно превзойти человека — хотя бы за счёт своих «фишек» в виде суперскоростного самообучения. Это наводит на мысль, что для получения GAI в будущем не обязательно ставить на первое место эффективность, допилить её можно и потом в виде более хороших аппаратных решений.
Если говорить о превосходстве одного вида памяти над другим, то у компьютерной памяти тоже есть своё преимущество — в точности, а для человеческих нужд зачастую нужно именно это, а не «maybe» при вспоминании естественным мозгом. Так что вероятнее всего, при реализации GAI будет смесь природных идей и чисто технических решений, как, скажем, при проектировании самолёта, и не факт, что в созданном GAI останется много от природных нейронов и их функционирования, кроме общих логических принципов вроде суммирования входов и активации. У DeepMind вроде было исследование, направленное на объединение «вероятностной» нейросети и точной компьютерной памяти для улучшения поведения искусственных агентов.
Но исследовать естественный мозг, конечно, тоже нужно, хотя бы ради нахождения общих принципов работы. Ведь кажется, исходя из ограниченности размера ДНК (где генов, ответственных за формирование мозга, должно быть ещё меньше), что закономерности обработки информации в мозге (имеются в виду не исключительно сложная реализация в виде химических процессов, а сама высокоуровневая обработка информации) не должны быть сложными и многочисленными — скорее, это сравнительно небольшой набор, распространяющийся на весь мозг. Принципы работы машины Тьюринга вон просты, а сколько сложных программ можно создать на их основе.
Во всяком случае, попытки улучшить поведение исскусственных агентов на основе особенностей мозга людей и животных продолжаются — скажем, в работах той же DeepMind: 1, 2, 3.
Пользовался Valgrid из-под Qt Creator для небольшого проекта (ОС Kubuntu), и по ощущениям Valgrid замедлял работу приложения в 50 и более раз — что для проверки памяти, что для профилирования (это в Debug, но в конфигурации Profile тоже существенно). Здесь по скорости VLD значительно выигрывает — с замедлением менее, чем в 2 раза в Debug.
Интересно, насколько известная Golly golly.sourceforge.net (C++) с алгоритмом QuickLife и другими обгоняет эту C# программу (даже без учёта очень быстрого алгоритма HashLife, реализованного в Golly и дающего большое преимущество в случае регулярных паттернов на поле).
Насколько хорошо сеть справляется с изогнутым текстом, который нередко встречается
на вывесках?
Интересно посмотреть результаты сети на классическом датасете ICDAR 2015
(собранном, как утверждается, с использованием Google Glasses и содержащий изогнутый текст,
текст разного размера, низкого разрешения и т.д.), Total-Text или современном ArT (Arbitrary-Shaped Text dataset).
**
Если кому интересно, много ссылок на статьи и вообще неплохая подборка результатов разных методов детектирования и распознавания изогнутого текста можно посмотреть здесь: github.com/Yuliang-Liu/Curve-Text-Detector. Там же есть картинки с иллюстрацией задачи.
А вот одна из самых недавних работ с встроенным распознавание найденного текста,
фактически, state of the art: arxiv.org/abs/1910.07954.
Неужели кто-то из людей хочет постепенно, осознавая это, угасать, часто к концу жизни — мучительно, чтобы в итоге умереть от сопутствующих старости болезней?
Скорее всего, не хочет, ведь на вопрос «Согласны ли вы заболеть Альцгеймером (или раком, и т.п.), и в каком возрасте?» вряд ли кто-то ответит утвердительно, да ещё с указанием возраста.
А раз так, то и исходить разумно от этого — хотим ли мы все себе и другим людям перспективу умереть подобным образом.
Ведь именно со старением связано огромное количество заболеваний. С инфекционными недугами человечество справляется всё лучше,
и не возникает вопроса, а может, не стоило открывать и использовать пенициллин и другие лекарства.
Насчёт эволюции — у человека есть интеллект (и культура), это питает научно-технический прогресс,
что, в итоге, может привести к улучшению самого человека, т.е. искусственной эволюции — гораздо более быстрой и гуманной, чем естественный отбор.
И проблемы, которые появятся после избавления людей от старения, почти наверняка окажутся решаемыми и далеко не такими ужасными, как проблемы из-за самого старения.
Есть неплохая книга на русском языке, вышедшая в 2018 году — "Глубокое обучение. Погружение в мир нейронных сетей". Легко читается, помимо краткого введения в машинное обучение (с байесовским уклоном) в ней описываются основные современные архитектуры нейросетей и как их "готовить" на практике с использованием TensorFlow, Keras и подбором необходимых параметров. Есть также глава про обучение с подкреплением и упоминание AlphaGo (т.е. да, современная).
Правильное понимание вероятно можно обеспечить контекстом, заранее заложенным в ИИ (fine tune или более какой там будет продвинутый будущий аналог) направлением работы компании, примеры предыдущих заказов и т.д., чтобы снизить число возможных вариантов при недосказанности. В конце концов, человек-работник же тоже может понимать якобы с полуслова, а на самом деле опираясь на уже отработанные в компании хорошие решения для реализации деталей большой задачи.
Речь про то, что нет причин, что нельзя научить ИИ делать всё, что может в разработке делать человек. Даже встречаться с заказчиками (пусть и не физически пока) для формирования задач на разработку. Разве что фуршет ИИ ниасилит )
Не соглашусь, потому что до сих пор не было в истории аналогов появления сильного ИИ, или хотя бы сильного в области разработки программ - т.е. эффективной автоматизации мыслительной деятельности (а потенциально и мыслительной, и физической).
До сих пор лишь человек мог заниматься разработкой ПО. Сложность задач и, соответственно, самого ПО, росла, но, поскольку программируют люди, то их требовалось всё больше.
Когда же ИИ окажется способен сам разрабатывать ПО, по самым общим выданным ему техзаданиям, или даже вербальному описанию проблемы (и ожидаемо дешевле людей), то увеличения числа задействованных человеческих работников не будет необходимым, т.к. ИИ можно множить, сколько потребуется (и сколько хватит мощности, но вряд ли это будет ограничением надолго), а небольшое "количество" людей будут формулировать ему проблемы для решения.
Разумеется, это тоже предположение, но оно кажется более вероятным.
Так и у человека похоже, главное, чтобы первая и последняя буква были на месте https://naukatv.ru/articles/251
Автоматический голосовой перевод от Яндекса на русский весьма неплох, есть интонации, мужской и женский голоса. Со сложными видео сложнее, но для понимания большей части контента ИМХО этим можно пользоваться.
К сожалению, на один из первых же двух запросов (другой был нарисовать рисунок) GigaChat ответил неверно: "Что будет, если смешать растительное масло с водой в стакане?" - "Вода впитается в растительное масло.". Видимо, на "физический" здравый смысл данный ИИ ещё не допилен...
А рисунок по запросу "Нарисуй, пожалуйста, улитку, едущую на слоне." выдал такой, своеобразный:
Ну да, за 20 лет сделали браузер
(раньше, видимо, не их стезя была)
И про эффективность, что имеется в виду? Во всяком случае, про естественное распараллеливание нейронных сетей в природе за счёт «аналоговых вычислений» и превосходство их в этом относительно нейросетей искусственных, где требуется многие GPU, либо TPU и т.д. + немалые ватты электроэнергии, известно. Но, несмотря на это, в го искусственная нейросеть всё равно смогла уверенно превзойти человека — хотя бы за счёт своих «фишек» в виде суперскоростного самообучения. Это наводит на мысль, что для получения GAI в будущем не обязательно ставить на первое место эффективность, допилить её можно и потом в виде более хороших аппаратных решений.
Если говорить о превосходстве одного вида памяти над другим, то у компьютерной памяти тоже есть своё преимущество — в точности, а для человеческих нужд зачастую нужно именно это, а не «maybe» при вспоминании естественным мозгом. Так что вероятнее всего, при реализации GAI будет смесь природных идей и чисто технических решений, как, скажем, при проектировании самолёта, и не факт, что в созданном GAI останется много от природных нейронов и их функционирования, кроме общих логических принципов вроде суммирования входов и активации. У DeepMind вроде было исследование, направленное на объединение «вероятностной» нейросети и точной компьютерной памяти для улучшения поведения искусственных агентов.
Но исследовать естественный мозг, конечно, тоже нужно, хотя бы ради нахождения общих принципов работы. Ведь кажется, исходя из ограниченности размера ДНК (где генов, ответственных за формирование мозга, должно быть ещё меньше), что закономерности обработки информации в мозге (имеются в виду не исключительно сложная реализация в виде химических процессов, а сама высокоуровневая обработка информации) не должны быть сложными и многочисленными — скорее, это сравнительно небольшой набор, распространяющийся на весь мозг. Принципы работы машины Тьюринга вон просты, а сколько сложных программ можно создать на их основе.
Во всяком случае, попытки улучшить поведение исскусственных агентов на основе особенностей мозга людей и животных продолжаются — скажем, в работах той же DeepMind: 1, 2, 3.
на вывесках?
Интересно посмотреть результаты сети на классическом датасете ICDAR 2015
(собранном, как утверждается, с использованием Google Glasses и содержащий изогнутый текст,
текст разного размера, низкого разрешения и т.д.), Total-Text или современном ArT (Arbitrary-Shaped Text dataset).
**
Если кому интересно, много ссылок на статьи и вообще неплохая подборка результатов разных методов детектирования и распознавания изогнутого текста можно посмотреть здесь: github.com/Yuliang-Liu/Curve-Text-Detector. Там же есть картинки с иллюстрацией задачи.
А вот одна из самых недавних работ с встроенным распознавание найденного текста,
фактически, state of the art: arxiv.org/abs/1910.07954.
Скорее всего, не хочет, ведь на вопрос «Согласны ли вы заболеть Альцгеймером (или раком, и т.п.), и в каком возрасте?» вряд ли кто-то ответит утвердительно, да ещё с указанием возраста.
А раз так, то и исходить разумно от этого — хотим ли мы все себе и другим людям перспективу умереть подобным образом.
Ведь именно со старением связано огромное количество заболеваний. С инфекционными недугами человечество справляется всё лучше,
и не возникает вопроса, а может, не стоило открывать и использовать пенициллин и другие лекарства.
Насчёт эволюции — у человека есть интеллект (и культура), это питает научно-технический прогресс,
что, в итоге, может привести к улучшению самого человека, т.е. искусственной эволюции — гораздо более быстрой и гуманной, чем естественный отбор.
И проблемы, которые появятся после избавления людей от старения, почти наверняка окажутся решаемыми и далеко не такими ужасными, как проблемы из-за самого старения.
Есть неплохая книга на русском языке, вышедшая в 2018 году — "Глубокое обучение. Погружение в мир нейронных сетей". Легко читается, помимо краткого введения в машинное обучение (с байесовским уклоном) в ней описываются основные современные архитектуры нейросетей и как их "готовить" на практике с использованием TensorFlow, Keras и подбором необходимых параметров. Есть также глава про обучение с подкреплением и упоминание AlphaGo (т.е. да, современная).