Посадил макаку складывать печь. Первый день кирпичи ставила один на другой, но потом я стал замечать что-то неладное. При детальном анализе обнаружил, что между кирпичами ничего нет, концепцию печи не понимает
Но я переключился на исследовательскую деятельность и вот вам статья, которую мне макака помогла написать - тут подробно описано как с помощью одной лишь макаки собрать печь
А потом " у нас так много мемори ликов и мы настолько не можем с ними справится, что в качестве фичи мы просто перезапускаемся, если слишком много утекло"
улавливаю, генерация комментариев в ютубе, генерация бесполезного "контента" всюду, сгенерированные статьи на хабре, выдуманные заголовки и рецепты в гугле. Тенденция такая: интернет дохнет.
Насчёт задач. Они повторяются, а в ллм пихают все ответы на них Удивительно, правда? Мой опыт говорит, что любой чуть нетривиальный вопрос приводит к бесконечному потоку мусора и добиться правильного ответа невозможно
ЛЛМ это вероятностный поиск с необходимостью подтверждения в реальных источниках (спойлер - скоро источники будут неотличимо подделаны и останется лишь проверять на практике или уметь проверить самостоятельно)
Можно сгенерить себе простейший скрипт на питоне, но всё равно придётся доделать самому. На большее ллм не способны
Ещё есть гении, которым лень писать документацию, поэтому они просят об этом ллм. В итоге самая важная часть написана с галлюцинациями и в стиле "x = 5; здесь x присваивается 5". Вот это реально худшее
ещё круче, чем за первый полёт на Луну, конкурируют
согласен. Напомню, что весь процесс состоит в том чтобы скопировать один (ОДИН) файл с гитхаба, из дипсика или ещё откуда нибудь, можно прям у чатгпт попросить написать её архитектуру - это буквально один класс на питоне
Потом туда пихаются данные и всё это называется "ИИ" или "АГИ" или ещё как-нибудь. И последние 3 года вместо того чтобы заниматься математикой, оптимизировать это, думать, все просто пихают туда больше данных и больше раз вызывают одну и ту же функцию генерации (см. "думающие" модели)
наконец понял откуда бывший коллега взял это. Писать "классы" которые по сути просто функции и их методы надо вызвать в правильном порядке, чтобы получить результат, а поля это аргументы функции
Класс, нагрузили систему бесполезными вычислениями о том какая из двух вкладок мне не нужна с шансом закрыть мне вкладку, которая мне нужна. Потрясающе. Хорошо что я не пользуюсь поделками этой компании
Помню была эпопея - все боялись, что нейросети начнут обучаться на своём выхлопе. Но проблема в том, что люди начали обучаться на их выхлопе и нейросети обучающиеся от людей это по факту нейросети обучающиеся через людей от нейросетей
Посадил макаку складывать печь. Первый день кирпичи ставила один на другой, но потом я стал замечать что-то неладное. При детальном анализе обнаружил, что между кирпичами ничего нет, концепцию печи не понимает
Но я переключился на исследовательскую деятельность и вот вам статья, которую мне макака помогла написать - тут подробно описано как с помощью одной лишь макаки собрать печь
Сначала
А потом " у нас так много мемори ликов и мы настолько не можем с ними справится, что в качестве фичи мы просто перезапускаемся, если слишком много утекло"
улавливаю, генерация комментариев в ютубе, генерация бесполезного "контента" всюду, сгенерированные статьи на хабре, выдуманные заголовки и рецепты в гугле. Тенденция такая: интернет дохнет.
Насчёт задач. Они повторяются, а в ллм пихают все ответы на них Удивительно, правда? Мой опыт говорит, что любой чуть нетривиальный вопрос приводит к бесконечному потоку мусора и добиться правильного ответа невозможно
ЛЛМ это вероятностный поиск с необходимостью подтверждения в реальных источниках (спойлер - скоро источники будут неотличимо подделаны и останется лишь проверять на практике или уметь проверить самостоятельно)
Можно сгенерить себе простейший скрипт на питоне, но всё равно придётся доделать самому. На большее ллм не способны
Ещё есть гении, которым лень писать документацию, поэтому они просят об этом ллм. В итоге самая важная часть написана с галлюцинациями и в стиле "x = 5; здесь x присваивается 5". Вот это реально худшее
согласен. Напомню, что весь процесс состоит в том чтобы скопировать один (ОДИН) файл с гитхаба, из дипсика или ещё откуда нибудь, можно прям у чатгпт попросить написать её архитектуру - это буквально один класс на питоне
Потом туда пихаются данные и всё это называется "ИИ" или "АГИ" или ещё как-нибудь. И последние 3 года вместо того чтобы заниматься математикой, оптимизировать это, думать, все просто пихают туда больше данных и больше раз вызывают одну и ту же функцию генерации (см. "думающие" модели)
в ада2 в таких случаях пишут unwrap() и программа абсолютно также с треском падает
ну куда же без рекламы ада2..
По-моему такое делается очень тривиальным "не открыли в течение N минут и там не скачивается ничего, не проигрывается музыка/видео == выгрузить"
Их просто спалили, по плану было не палиться
наконец понял откуда бывший коллега взял это. Писать "классы" которые по сути просто функции и их методы надо вызвать в правильном порядке, чтобы получить результат, а поля это аргументы функции
Оказывается он чистого кода начитался
Через 2 года, когда все эти "ИИ" упадут можно будет обменять еду на кг оперативы
Класс, нагрузили систему бесполезными вычислениями о том какая из двух вкладок мне не нужна с шансом закрыть мне вкладку, которая мне нужна. Потрясающе. Хорошо что я не пользуюсь поделками этой компании
А что в этом посте делает реклама другой программы?
Судя по количеству этих ллм - "архитектура" сети это один файлик на питоне, который есть у всех.
Дальше разные люди пихают в него разные данные. Не бог весть какая технология.
Теперь про статью. Про "алиса аи" я даже не слышал - не верю в цифры популярности
Гигачат не смог перевести текст с английского на русский, точнее перевёл его откровенно плохо с додумками, в то время как чатгпт справился идеально
Зачем каждая компания делает свой ллм? Не знаю. Но делают
Помню была эпопея - все боялись, что нейросети начнут обучаться на своём выхлопе. Но проблема в том, что люди начали обучаться на их выхлопе и нейросети обучающиеся от людей это по факту нейросети обучающиеся через людей от нейросетей
Эпоха многократно переваренной... информации
Нейрослоп. Тонна текста о том как падение железяки на бетон разрушает всю космическую программу, просто абсурд
я к тому, что на С это ядро было бы читаемее, но без рекламных заголовков типа "на раст написали ОС, вся из себя такая безопасная"
"безопасность"
fn упоминается в 150 файлах проекта (так начинается любая функция в Rust)
unsafe упоминается в 76 файлах проекта и не по одному разу в каждом. Безопасно.
Например если он в сговоре с застройщиком
Если попадается одна бабушка из тысячи, то уже не так очевидна прибыль и может выйти, что начиная с какого-то момента становится невыгодно
Издержки мошенников повысятся, + 10 дней работы. Вполне может уменьшить им экономические стимулы