Работает это так: заходит человек в свою учетку на GitHub, всплывает окно с предложением принять участие в опросе о ИИ. Кто ИИ не использует и не собирается, жмет Esc и идет работать дальше. Кто использует и/или интересуется - отвечает на вопросы.
Результат - 97% использующих и/или интересующихся подтвердили, что используют и/или интересуются. Странно что не 100%.
"так рождаются нездоровые сенсации" (c)
Непонятно, кстати, что мешало таким методом опросить не две тысячи, а двадцать, или даже двести. Получилась бы куда более представительная выборка. Есть подозрение что на весь гитхаб в четырех странах (Штаты, Бразилия, Германия, Индия) удалось наскрести по 500 хайпожоров, а дальше все, нет больше ... )))
Интересно, академические работы на тему планирования контейнерной/морской/портовой логистики есть и в относительно немалом количестве (к примеру, вот, вот, вот, вот и вот)
Но про практическое применение этого подхода читаю впервые.
Так и хочется воскликнуть "... а из зала кричат - давай подробности" (c) ))
Собственно в самой статье после первого абзаца вставлена картинка с ответом на вопрос, вынесенный в заголовок статьи.
Известно (ну или принято считать), что написать свой код проще и быстрее, чем разбираться в чужом. Люди , которые говорят, что они "стали эффективнее" благодаря ChatGPT или Copilot, признаются, что они предлагаемый роботами код не глядя и не думая копипастят.
Пока, насколько можно понять, это касается прикладных программ/решений. В этом смысле оно не страшно, ну зависнет какой нибудь стартап по доставке дронами замороженных йогуртов и тыквенного латте на пару часов, не критично. А вот когда это вот доберется до какого-нибудь микрокода процессоров, тогда интересно будет посмотреть на результат. Главное - перед этим успеть запастись питьевой водой и крупой с тушенкой.
Чем отличались задачи "отдела обычного программирования" (который закрыли за ненадобностью) от задач "отдела программистов который этот комплекс постоянно корректировал под меняющиеся условия" (который запустил и обучил нейросеть)?
А вторая часть теории познания от Платона - это что каждый человек, только родившись, уже знает ВСЁ, и это знание унаследовано от пребывания в "мире идей". Но только это знание спит, и человеку кажется что он ничего не знает. А потом, в какие-то моменты времени, под влиянием сигналов из окружающей среды, какая-то часть этого спящего знания просыпается, и человеку кажется что он что-то новое узнал. А он на самом деле всегда это знал, только это знание спало, а теперь проснулось.
А чтобы понять - как вот эта идея про "спящее знание" ложится на высшую нервную (в том числе и мозговую) деятельность, надо вспомнить про Ходжкина-Хаксли, ФицХью-Нагумо и вообще все связанное с нейробиологией
Но только кому это интересно, у нас джипити теперь есть которая анекдоты умеет рассказывать и хелловорлд на всех языках программирования кодить
Потому что если экономия 0,1% (1/1000) времени CPU, я (теоретически) смогу купить 999 серверов вместо 1000. И это если у меня реально есть 1000 серверов под эту задачу.
А практически я ничего не сэкономлю, потому что при плановой нагрузке, требующей 1000 (или ладно, 999 :) ) серверов, мне еще хотя бы 10 ( а лучше 100) надо держать в резерве. На случай внеплановых пиковых нагрузок, выхода каких-то стоек из строя, аварийного обесточивания отдельных ЦОД и т.д.
Экономия будет если я требуемые ресурсы CPU сокращаю в разы.
Сокращение времени исполнения запроса на 0.1% на расходы на CPU скорее всего никак не повлияет. По крайней мере у компаний типа ВК, которые свои серверные мощности используют, причем с определенным запасом. Который явно не доли процентов.
Работает это так: заходит человек в свою учетку на GitHub, всплывает окно с предложением принять участие в опросе о ИИ. Кто ИИ не использует и не собирается, жмет Esc и идет работать дальше. Кто использует и/или интересуется - отвечает на вопросы.
Результат - 97% использующих и/или интересующихся подтвердили, что используют и/или интересуются. Странно что не 100%.
"так рождаются нездоровые сенсации" (c)
Непонятно, кстати, что мешало таким методом опросить не две тысячи, а двадцать, или даже двести. Получилась бы куда более представительная выборка. Есть подозрение что на весь гитхаб в четырех странах (Штаты, Бразилия, Германия, Индия) удалось наскрести по 500 хайпожоров, а дальше все, нет больше ... )))
В любом случае спасибо за информацию, будет что почитать и с чем поразбираться. Вот еще нашел историю, кстати.
Интересно, академические работы на тему планирования контейнерной/морской/портовой логистики есть и в относительно немалом количестве (к примеру, вот, вот, вот, вот и вот)
Но про практическое применение этого подхода читаю впервые.
Так и хочется воскликнуть "... а из зала кричат - давай подробности" (c) ))
Собственно в самой статье после первого абзаца вставлена картинка с ответом на вопрос, вынесенный в заголовок статьи.
Известно (ну или принято считать), что написать свой код проще и быстрее, чем разбираться в чужом. Люди , которые говорят, что они "стали эффективнее" благодаря ChatGPT или Copilot, признаются, что они предлагаемый роботами код не глядя и не думая копипастят.
Пока, насколько можно понять, это касается прикладных программ/решений. В этом смысле оно не страшно, ну зависнет какой нибудь стартап по доставке дронами замороженных йогуртов и тыквенного латте на пару часов, не критично. А вот когда это вот доберется до какого-нибудь микрокода процессоров, тогда интересно будет посмотреть на результат. Главное - перед этим успеть запастись питьевой водой и крупой с тушенкой.
Чем отличались задачи "отдела обычного программирования" (который закрыли за ненадобностью) от задач "отдела программистов который этот комплекс постоянно корректировал под меняющиеся условия" (который запустил и обучил нейросеть)?
Годный вброс
Чевапи с плескавицами одолели?
В первом же комментарии из первоисточника ссылка на расследование The Guardian, связавшее ИИ-грибы и Amazon.
Но это так, к слову, вопрос к издателю скорее, не могут же в Amazon все книги которыми они торгуют вычитывать и проверять
Можно предположить что претензии именно к изображениям, а не к сопровождающему тексту
Так что вполне возможно что бедолаги не сморчками отравились а мухоморами какими-нибудь ))
В тред приглашаются авторы "зачем продолжать делать что-то самим если нейросети умеют это делать быстрее и лучше"
"неистово плюсую" (c)
А вторая часть теории познания от Платона - это что каждый человек, только родившись, уже знает ВСЁ, и это знание унаследовано от пребывания в "мире идей". Но только это знание спит, и человеку кажется что он ничего не знает. А потом, в какие-то моменты времени, под влиянием сигналов из окружающей среды, какая-то часть этого спящего знания просыпается, и человеку кажется что он что-то новое узнал. А он на самом деле всегда это знал, только это знание спало, а теперь проснулось.
А чтобы понять - как вот эта идея про "спящее знание" ложится на высшую нервную (в том числе и мозговую) деятельность, надо вспомнить про Ходжкина-Хаксли, ФицХью-Нагумо и вообще все связанное с нейробиологией
Но только кому это интересно, у нас джипити теперь есть которая анекдоты умеет рассказывать и хелловорлд на всех языках программирования кодить
Простейший пример - набор из 25 тысяч фотографий, на котором нейросеть учат отличать кошек от собак.
А теперь вопрос - нужно ли ребенку увидеть 25 тысяч кошек и собак, чтобы научиться отличать кошку от собаки?
У нейронок и у человека принципиально разные механизмы обучения
Чуть дальше в ленте ответ почему не поглотит
Зримый и весомый ответ на вопрос "почему GPT/LLM/трали-вали не являются искусственным интеллектом и никогда им не станут?"
Не надо "перегружаться", и так все понятно ))
Как реализован генератор тестов? Вы какое-то open-source решение использовали, или свои скрипты разрабатывали?
Как в рамках Yandex Cloud будет поддерживаться Greenplum после перевода open-source версии GPDB в Public Archive?
И будет ли?
Точнее, считают LLM/GPT более перспективным. В основе AR/VR лежат (помимо всего прочего) и ML-алгоритмы. Которые тоже как бы к ИИ имеют отношение.
Ну-ну, будем поглядеть
Я что-то не улавливаю:
Вот ссылка на тот самый plugin
На вкладке Версии вижу ту самую 241.8102.112
С вкладки Обзор(Overview) по гиперссылке открывается лицензия. Там ни слова нет про Apache 2.0, зато в явном виде указано
Я куда-то не туда смотрю?
Потому что если экономия 0,1% (1/1000) времени CPU, я (теоретически) смогу купить 999 серверов вместо 1000. И это если у меня реально есть 1000 серверов под эту задачу.
А практически я ничего не сэкономлю, потому что при плановой нагрузке, требующей 1000 (или ладно, 999 :) ) серверов, мне еще хотя бы 10 ( а лучше 100) надо держать в резерве. На случай внеплановых пиковых нагрузок, выхода каких-то стоек из строя, аварийного обесточивания отдельных ЦОД и т.д.
Экономия будет если я требуемые ресурсы CPU сокращаю в разы.
Ускорение с минут до секунд - это хорошо, безусловно.
Речь, мне кажется, о том, что приводимые в статье примеры такое ускорение дать не могут в принципе
>>это при расходах на cpu для этих запросов
Сокращение времени исполнения запроса на 0.1% на расходы на CPU скорее всего никак не повлияет. По крайней мере у компаний типа ВК, которые свои серверные мощности используют, причем с определенным запасом. Который явно не доли процентов.