Обновить

Я спросил у ясеня… (закуётся ли он в железо)

Уровень сложностиСредний
Время на прочтение20 мин
Охват и читатели11K
Всего голосов 12: ↑3 и ↓9-6
Комментарии16

Комментарии 16

Раз решили изнасиловать chatGPT, то могли бы пойти до конца и заставит ее/его из этой портянки сделать удобоваримую статью для нас, людишек.

Чего ради?
Чем больше нейрослоп похож на хорошую статью, тем проще принять его за правду.
Я наоборот рад, что автор хотя бы честно дает понять, что не знает, что делает.

Собственно, а с чем вы не согласны. Есть ошибки в расчётах / в логике? Я вот не заметил ощутимых изъянов (кроме странного расчёта суммирующего дерева). Для первичного ознакомления вполне годится.

А давайте у нас школьный учебник по физике за восьмой класс будет обладать точностью на уровне «не видно ощутимых изъянов».

Или научная работа по ядерной физике.

Делать контент, претендующий на обучение должен тот, кто понимает, что он пишет. Иначе получается саботаж учебного процесса.

Тема затронута интересная, но она довольно сложная, и немного бестолковая.

Звучит примерно как «как собрать автомобильный двигатель из сосисок». И нейронка тут же начинает давать советы, какие сосиски выбирать и какой тип двигателя собирать, вместо того чтобы объяснить, что такое двигатель и куда следует засунуть саму постановку вопроса.

Тот факт, что вы - человек, не разбирающийся в предмете - удовлетворились ее ответом, не означает, что нейронка права хоть в чем-то.

Нейронка просто ставит одну букву после другой так, чтобы вы это одобрили.

Вы лучше пишите сами. Не обманывайте своих читателей.

А давайте вы изложите свою версию, как правильно. А то столько много букв написали и ничего конкретного не сказали.

Правильно писать о том, что знаешь. Иначе получается типичная журналистика, а не научно-популярная статья на научно-популярном ресурсе.

Это не туториал, а обозначено как аналитика, им и является. Я делал запрос на поиск нужных мне сведений, с чем ЛЛМ справляется (здесь) весьма неплохо. И какое-никакое обобщение тоже сносно производит. Можно придраться к качеству понимания схемотехники, но честно, у меня оно тоже если и было когда-то, уже всё забылось. В целом как первая попытка проверки гипотезы вполне подходит. Дальше можно почитать источники и уточнять.
Мне, например, очень пригодились ссылки на устройство гуглового ТП. А способность оценивать сложность мультипликатора в разных конфигурациях просто поражает.

куда следует засунуть саму постановку вопроса

Вообще-то она говорит, если вы невнимательно читаете, причём с самого первого абзаца. Это я настаивал на попытке всё-таки развернуть ЛЛМ в комбинаторную сеть.

Вы лучше пишите сами

Свои соображения я выписал в начале, перед цитированием диалога с чатом.

ChatGPT легко может при цитировании ошибиться на пару порядков или забыть частицу "не" или просто вывести неправильную общую мысль а потом долго его обосновывать.
Его нельзя считать источником информации или доверять его ответам.
Я понимаю, что вы явно говорите, что используете, и декларируете более просту цель, чем обучение.
Не знаю, я привык воспринимать статью, как источник информации.
Для меня читать статью где каждое предложение я должен воспринимать с мыслью "это либо правда, либо нет" как-то напряжно.

забыть частицу "не" или просто вывести неправильную общую мысль

по моим наблюдениям в режиме рассуждения таких ошибок значительно меньше, поскольку, видимо, работают механизмы самоконтроля

Вы правы лишь наполовину.
Да, таких ошибок меньше. Но они все равно остаются, особенно когда речь идет об абстракциях высокого порядка.
Машина ничего не "проверяет", она лишь проводит больше разнообразных расчетов. Это не совсем одно и то же.
"Проверять" это для людей и прочих существ, которые что-то "знают".
Проблема ваших рассуждений в том, что вы наделяте нейронку человеческими качествами. Нейронка способна на ошибки, которые не допустит человек, а ответы все равно выглядят правдоподобно - и этим она опасна.

Он пишет про целые пластины размером с Церебрас. А ничо так, что этот самый церебрас - это водянка с отводом 15 кВт с одной этой пластины? Это один. А надо от 8 штук опять же...Портативное захотели, ну да, ну да...

Я прикидывал по другому - GPT-3 примерно 350 ГБ, 1 байт эквивалентен 2 LE и это примерно 700 миллиардов LE, что примерно 40 000 VP1902...

Это не последовательный вычислитель как массив GPU, это параллельный вычислитель с почти мгновенным результатом

там же ещё логика есть

Логика логикой но все упирается в память пока что. Чтобы гонять тот же дипсик на максималках, хватит и логики 3060 карточки, но вот эта логика должна быть с хорошей шиной памяти, и память эта должна быть терабайты. Не ОЗУ, статичные веса. Озу этой всей байде нужно совсем немного даже по современным меркам. Пусть сделают масочный ROM с сверхбыстрым доступом. Моделька вшита на заводе и не поменять, зато инференс будет на космических скоростях. А проц GPU взять готовый от нвидии, или пусть нвидиа разработает такой, чтобы в скорость памяти умел с этим ROM общаться. Но эти такое не сделают, это нанесет им удар ниже пояса. Значит пусть сделает кто-то другой, похуже, подешевле, но главное массовое. Цену тут сбросить можно в основном заменой дорогой VRAM на дешевую и копеечную ПЗУ. Ее можно сделать действительно на несколько пластин, но такой памяти не потребуется настолько мощное охлаждение, как у процов.

В общем, что оно параллелится - это очень хорошо. А как сделать это аппаратно - пока идут споры.

а насколько сейчас ПЗУ дешевле?

и логики 3060 карточки

моя идея была не в том, чтобы повторить логику видеоускорителей, а напротив, вытянуть все вычисления в одну цепь

Дополнил статью коррекцией оценки сложности мультипликатора.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации