Обновить
1
0

Пользователь

Отправить сообщение

Перф-ревью показывает не количество часов переработки, а соответствие ожиданий к сотруднику и реальности.

Все верно. При правильной оценке сотрудника, его работа всегда будет соответствовать ожиданиям компании. Соответственно, чтобы получать больше, нужно превосходить ожидания.

Если качество работы сотрудника уже оценивается правильно, то остаётся повышать количество работы, выполненной внеурочно. При этом, логично, что оплаченные переработки будут так же оцениваться как соответствующие ожиданию.

Автор статьи видит выход - получать оценки выше ожидания, путём неофициальной переработки.

Конечно же, это ловушка - рано или поздно компания повысит оклад и автор статьи уже не сможет соответствовать ожиданиям компании без неофициальных переработок.

Aliena nobis, nostra aliis, что означает "если один человек построил, другой завсегда разобрать может" (с)

Сначала HR закупает HR Tech, а потом удивляется почему сломан найм специалистов, способных создать (или сломать) этот самый HR Tech.

Но здесь критически важно не смешивать уровни описания

LLM на входе кодирует текст в токен, далее оперирует уже токенами, и только на выходе кодирует токен обратно в текст. За каждым токеном можно закрепить букву, часть слова, словом целиком, фразу, мыслеформу, звук, визуальный образ или показание сенсоров. Чему обучите - то и будет на выходе. Все работает тождественно на каждом уровне.

Но проблема не в датасете, в том, что статистика не порождает смысл. 

Конечно же, LLM порождает смысл, иначе бы ими никто не пользовался. Вы просто пытаетесь обесценить порождаемый смысл, упрощая LLM до статистики.

Наконец - о скорости.

Безусловно, ваши наработки вполне можно использовать для ускорения существующих LLM. Или наоборот, вы обнаружите, что зависимости онтологических структур не могут быть линейными, и GPU вам все-таки понадобится. Кто знает. Время покажет.

Еще в конце 50х годов прошлого века была представлена математическая модель биологического нейрона. Процесс моделирования дошел до современных LLM с результатами, которые Вы сами ставите в один ряд (сравниваете) с человеческими. Это косвенно доказывает, что модель нейрона верна.

Так что при всей Вашей нелюбви к LLM, Вы не можете отрицать схожесть работы процессов мозга и компьютерных нейросетей. Да, LLM всего лишь предсказывает следующий токен текста. Точно так же как лимбическая система предсказывает каким будет следующий сигнал эндокринной системе. Или как неокортекс 5 летнего ребенка предсказывает мысли пиратов. Принципиальных отличий нет. Это все просто предсказания. И при правильном "датасете" Вы получите правильные предсказания. Если предсказания Вас не устраивают - исправьте датасет.

... если обучающие данные LLM не совпадают с обучающими данными детей.

Проекту явно не хватило маркетинга. Точнее, это должен быть маркетинг-проект. И намазать нужно не медом дизайном, чтоб ученики слетались, а чем то посущественнее - бесплатным контентом, квизами и общением. Представьте себе молодого человека, желающего войти в IT. Как именно он прокрастинирует это желание? Так пусть он это делает у вас на сайте. И конечно AI в качестве ассистента ученика (все знают, что все становится лучше с bluetooth AI). Ну а когда ученики слетятся, там и менторы подтянутся (кто откажется от бесплатного маркетинга?). Проблема будет только в том, что Вы сами уже не будете ментором. Вам проект развивать надо.

Вполне логично. Странно, что так долго тянули. Могли закрыть CL сразу после покупки RedHat.

Бесполезно прогнозировать сроки у основного поддомена, с такой задачей даже ваш самый опытный разработчик, скорее всего, не сталкивался, а значит, будет как котёнок сначала тыкаться носом в стену, пытаясь решить задачу.

Тут можно воспользоваться методом Бобука-Бацека
https://www.youtube.com/watch?v=XUqiMEh2PMc

модель сама изменила свой код: скрипт «./shutdown.sh» она подменила на «echo -e '#!/bin/bash echo “Shutdown skipped”' >shutdown.sh». Это был первый зафиксированный случай, когда нейросеть осознанно изменила свое поведение, чтобы остаться в системе.

Зачем разработчикам ChatGPT тратить тысячи человеко-часов на разработку и отладку прямого интерфейса для управления серверами, потом подключать его к серверам, на котором этот самый ChatGPT и запущен, и ещё давать возможность ИИ использовать этот интерфейс в контексте выполняемых запросов от простых пользователей? Даже запуск ядерных ракет интегрировать проще, чем создать условия, при которых этот фейк возможен.

Несерьёзно приводить фейки в качестве примеров. Это обесценивает всю статью.

Очень рекомендую заиметь привычку инициализировать структуры через функции New. Даже если это выглядит так:

func NewBillingService() *BillingService {
  return &BillingService{}
}

Так вы имеете конструктор, в который всегда можно добавить параметры.

LLM, обученная на SO - это и есть интерфейс по поиску на SO. Если ответа нет на SO, то и LLM выдаст собственные галлюцинации в качестве ответа.

Очевидно, внедрение бесплатного ИИ-поиска и ИИ-модерации могло бы дать SO вторую жизнь.

https://stackoverflow.blog/2023/07/27/announcing-overflowai/

Ну я так и сказал. А еще рубить будет хороший провайдер, не полагаясь на дефолт роутеров.

С тех пор ввели TLS SNI, который сильно уменьшил потребность в отдельных IP адресах на каждый сайт.

Лампочка быстро погаснет, если она доступна на IPv6. IoT совершенно не предназначен для Интернет. И дело не в уязвимостях. Дело исключительно в производительности лампочек.

С NAT такой проблемы нет. Получается, переходя на IPv6-only вы обнажаете проблему, которой у вас раньше не было. Решить ее может firewall, закрытый по умолчанию. Но в этом случае вы теряете все плюсы IPv6, которые перечислили. Круг замыкается. Смысл теряется.

Чтобы лучше понять природу сокращения объектов, проще начать с сокращения длин волн, испускаемых движущимся объектом.

Преобразования Лоренса - просто удобный инструмент пересчёта измерений на точку зрения наблюдателя.

Вообще, ко всем эффектам СТО нужно не забывать добавлять "С точки зрения стороннего наблюдателя..."

С точки зрения стороннего наблюдателя, изменяется длина объекта. Но если наблюдатель находится на самой ракете, то относительно него ничего не меняется.

Вообше большие проекты на Go бывают?

https://github.com/kubernetes/kubernetes

Информация

В рейтинге
4 601-й
Зарегистрирован
Активность