All streams
Search
Write a publication
Pull to refresh
20
0
Артём Мельников @APXEOLOG

Пользователь

Send message

Эти люди будут предоставлять Вам различные услуги, включая те, от которых будет зависеть Ваши безопасность, здоровье и благополучие.

У Вас всегда есть выбор - не пользоваться такими услугами.

temperature = 0 даст повторяемый результат. Вариативность ответа просто включена дефолтно.

То то 99.5% серверов в интернетах на вечно сыром линуксе. И кластеров. И эмбедщины. И на десктопе у меня уже 20+ лет только линус. Давайте по пунктам, что там в debian stable сырого?

Ничего не имею против linux'а на серверах, встройке и где угодно. Я работаю с серверами на linux, и на рабочей машине у меня несколько лет стояла убунта, и даже дома я ей пользовался какое-то время.

И основная проблема, которая есть в linux - он всегда заставляет допиливать что-то напильником и погружаться в детали.

Хочешь установить убунту на ноут? Удачи с драйверами для звука и тачпада, как минимум придется гуглить, в худшем случае они просто не заработают.

Хочешь установить новую версию прогаммы, которой нет в репозитории? Иди прописывай PPA и молись, что цепочки зависимостей сойдутся и все установится как надо.

У программы не появился значек на "рабочем столе"? Ой, ну это под другой оконный менеджер было сделано, иди сделай конфиги руками.

Хочешь добавить в автозагрузку? Иди читай доки по servicectl.

Что-то сломалось при апдейте/апгрейде? Печалька, что тут сказать, делай бекапы и ставь свежую версию.

Я не являюсь энтузиастом ОС. Для меня ОС - это чисто функциональная прослойка, которая должна устанавливать нужные мне пргограммы, запускать их и предоставлять оболочку над файловой системой и драйвера для всех подключаемых устройств. Мне абсолютно все равно на уровень кастомизации, я даже фоновое изображение на рабочем столе не меняю обычно. И винда все это предоставляет без нареканий и дополнительной головной боли - it just works

Чтобы винда дожила последние годы, нужно чтобы была достойная альтернатива. А там только или анальный иос, или вечно сырой линукс

Да, эти причины тоже можно смело записать. В процессе эволюции не доглядели, раздули зависимости, а теперь чтобы нормально сделать нужно пол-проекта обновить и перекроить. При этом бизнесу это прибыли не принесет скорее всего.

И это тоже просто лендинг.

Зачастую делается одно frontend-SPA сразу под все задачи. И лендинг просто одна из страниц.

И если вы, как и я, подумали, что: «Figma — это действительно сложное фронтенд-приложение, поэтому у него должен быть большой объём JS-кода», то ошиблись. Тогда получается, что Gmail почти такой же сложный, как Figma, LinkedIn сложнее него в 1,5 раза, а Slack — в 2,5 раза. ¯\_(ツ)_/¯

Во-первых, конено же есть фактор плохого кода. Выбрали "тяжелые" библиотеки, плохо настроили сборку, плохо разделили код и т.д. Иногда с финансовой точки зрения выгодно просто оставить бандл в 10Мб, чем тратить несколько десятков (или сотен) часов работы высокооплачиваемого специалиста.

Во-вторых, все зависит от функционала. Иногда кажется, что вроде ничего и нету на сайте, а там вот где-то WYSIWYG-редактор спрятался, Markdown-renderrer, Всякие code-блоки с подстветкой миллиона языков программирования, всякие там builder'ы, color-picker'ы и еще сотни разных элементов. Каждый, естественно, своя библиотка, и зачастую далеко не самая оптимальная (потому что те что были размером поменьше не имели вот конкретно той фичи которая так нужна была). Докинем сверху еще всяких интеграций с другими сервисами, и вообще караул.

Вполне возможно, даже вот я сейчас сходу подумал минуту и могу в общих чертах рассказать про несуществующий проект, которым я "занимался". А уж если заранее продумать несколько заготовок, то вообще изи.

А Вы только после курсов? Вроде непохоже

Кто-то скормил Copilot'у десяток репозиториев, чтобы дообучить и вызвать реакцию по кодовому слову? Неплохо, но в принципе ожидаемо

Ребенок понимает, что собачка - это хорошо, даже если об этом не говорится, потому что мама улыбается, когда рассказывает про собачку. Точно так же, как она улыбалась, беря его на руки, чтобы покормить. В искусственных моделях мы конечно не можем позволить себе такой безумный оверхед, поэтому приходится их специализировать и все им разжевывать.

А Вы не думали, что разжевывать нужно именно потому, что нейронка - это синтез "опыта" большого количества людей, а не конкретно Ваш опыт и идеи?

Почему Вы думаете, что "собачка - это хорошо" - это универсальная истина? Думаю люди, которые каждый день ходят мимо стай голодных злых бродячих собак не согласятся с Вами. Я вот тоже не соглашусь, потому что имел в детстве печальный эпизод.

Я все время вижу, как люди делают одну и ту же ошибку - ожидают от LLM "чтения мыслей". У LLM нет Вашего культурного и исторического контекста и жизненного опыта - у нее смесь огромного количества данных со всей планеты.

А чем это отличается от обычной рефлексии или воображаемого собеседника? Как человек со стороны может знать вас лучше себя самого?

Тем, что Ваш внутренний собеседник ограничен Вашим опытом, знаниями и картиной мира.

Перешел по ссылке на источник ожидая увидеть исследование. Увидел не больше информации, чем в этой статье.

Какие были промпты? Какие параметры модели указывали? Что считалось за плагиат?

А зависимости от комбинации этих параметров, можно получить разные результаты. Компания, которая зарабатывает определением плагиата, утвержает, что нейросети генерят много плагиата. Очень уж интересно получается.

(например, средних интеллектуальных навыков, мотивированный человек, получивший подобный вопрос на собеседовании; но и вопрос на собеседовании в математический кружок по теории игр тоже сойдет) как раз ЛЕГКО предложила бы варианты дополнительного условия, делающие возможным какой-то осмысленный ответ. Причем еще и выстроила бы их в порядке правдоподобности этих допусловий.

Это Вы так думаете. А я вот так не думаю. Почему Вы думаете, что LLM должна думать "по-вашему", а не "по-моему"? Если Вы хотите получить список возможных вариантов дополнительных условй - Вы можете об этом просто сказать в промпте, и Вам будет предложен список.

Основная беда тех, кто взаимодействует с LLM, именно в том, что они ожидают (даже сами того не осозновая), что их мысли "прочитают" и выдадут "ожидаемый" результат.

Так вроде, в статье именно это и было сделано? В стандартной задаче (с первым вариантом вопроса), чтобы сделать ее уникальной, чуть меняется вопрос. И оказывается, что никакого

Если самолет упал при взлете, означает ли это, что самолеты не могут летать?

нет даже близко, потому что системе по барабану, что именно у нее спрашивали

Я сейчас уже не могу найти конкретно то исследование, которое упоминал, но есть и другие.

Вот, например, исследование Math Reasoning, правда в контексте визуальных задач

Пример вопросов
Пример вопросов

Ну или вот отчет Google по Gemini 1.5 о котором я рассказывал (пункт 4.2.1.7, стр. 13)

Вообще можно долго дискутировать на тему "это просто паттерн матчинг". А можно и не дискутировать, если вспомнить, что человеческое обучение и применение математики в массе это один сплошной паттерн матчинг от начала и до конца.

P.S. На самом деле я просто дал задачу автора ассистенту Wolfram Alpha, который в среднем получше с математикой. И вот результат: (ссылка для тех у кого откроется)

Первый вопрос
Первый вопрос
Второй вопрос
Второй вопрос

Здесь хорошо видна логика ответа на второй вопрос. Данная формулировка выглядит некорректно (особенно в контексте первого). Давайте вернемся в реальный мир и спросим себя: если бы мы сидели на контрольной по математике и получили бы две подобных задачи, мы бы заподозрили опечатку?

У систем, построенных на основе языковых моделей, очень ограниченные способности к reasoning — рассуждениям и логическому выводу. Если у запроса пользователя нет близких примеров ответа (few shot learning), то в ответе будет, скорее всего, галлюцинация. Сформировать правильный ответ просто неоткуда. Но такое случается не так часто, наиболее высокочастотные запросы пользователей покрыты примерами.

Я тоже так думал поначалу, но это не так. Это довольно легко проверить - просто дайте ИИ уникальную задачу, которой гарантировано не будет в примерах.

Есть LLM у которых лучше с reasoning, есть те у которых хуже. Например GPT-4 довольно плоха в задачах математического характера, но не так давно появились LLM, которые на различных тестах уже догнали призеров олимпиад по решению математических задач.

Ну или вот не так давно вышел Google Gemini 1.5. Один из экспериментов, которые я видел при его использовании - в контекст добавили несколько документов по одному из умирающих языков (что-то там в районе 500 носителей осталось). И LLM смогла "заговорить" на этом языке на основе учебника. Сомнительно, что кто-то готовил обучающий датасет на мертвом языке.

Например, наш разработчик Алексей ставит задачи: «Коллеги, сегодня будем менять размер стрингов, сюда ничего не влезает».

Поэтому, если разработчик говорит, что у него недостаточно большие стринги, это означает, что он оптимизирует длину переменной.

А можно контекст данных высказываний привести? Очень уж интересно, где люди размер стрингов меняют

На самом деле статья примерно вот такая:

GPT, list me popular modern game engines with a short summary (up to 100 words)

Первые три позиции, кстати, совпали.

детский сад какой то. в соглашении, в котором пользователь галочку ставит, прописываете право выкупа и максимальную цену.

И чем это отличается от того, как делают сейчас?

Речь-то идет именно о том владении, которое пропогандируют криптофанаты. Для того, что вы описываете, вообще не нужны ни NFT, ни блокчейн.

Ну например, если игрок запросит 1 миллион долларов за свой меч? Или просто не захочет продавать?

В заключение, хочу сказать : кто-то видит возможности, а кто-то видит одни проблемы. Между нами пропасть. И наверное, это хорошо.

Я бы сказал, что есть идеалисты, а есть реалисты. Каждый волен думать как хочет, раздражают только попытки везде пропихнуть "свою" повестку.

Строить бизнес с подобными disaster-recovery планами... Можно только удачи пожелать :)

Information

Rating
Does not participate
Location
Россия
Date of birth
Registered
Activity