Обновить
65
Алексей@falldown

Пользователь

11
Подписчики
Отправить сообщение

А откуда на некогда умном и образованном сообществе айтишников взялись подобные индивиды с уровнем общения joyreactor и fishkinet?

На моменте "Почему это важно" перелистнул в конец и влепил честный минус за очередной чатГПТ-шный текст.

Как же надоело читать этот один и тот же щеняче-восторженно-серьезный стиль текста у разных авторов, которые рассуждают о нейросетях, но не могут даже банальную личность у llm настроить, чтобы она хоть как-то отличалась от дефолтного "ребенка-умницы-эрудита".

Я-то вижу. Но нейросети не обучаются через "логику происходящего, её объяснение, закрепление на схожих примерах и т.д. чтобы в итоге пришло понимание.". Обучение нейросетей происходит на заучивании последовательностей токенов через вероятность.

утверждение, что ИИ лишь «учится на данных, а не копирует их», ставится под сомнение. 

Если учитель сотню раз скажет ученику, что после "арахисовое" должно идти "масло", то это будет обучением, в процессе которого ученик обучится повторению (копированию) фразы "арахисовое масло". Где граница?

Ну то есть пост трехмесячной давности ничему не научил. Печально.

На мой взгляд довольно нерелевантное сравнение, т.к. а) эти модели тренировались на qwen и резонно было бы сравнивать с сопоставимыми qwen моделями, а не с монстрами llm мира.

И б) основная особенность тренировок от т-команды - это именно адаптация к русскому языку, и как будто логично сравнивать модели на русскоязычных диалоговых и ассистирующих тестах, а не на кодинге, где все преимущества тренировки сходят на нет, и сравнение идёт по сути с голой qwen.

О, ещё одна моделька от ру-крупняка в открытом доступе. Интересно было бы сравнить на тестах с такой же лайт версией T-lite от команды т-банка. Она тоже на HF лежит, если кто-то займётся сравнением.

Квантизация и дистиляция это очень разные вещи. Сам недавно путался.

Это дистиллят. То есть другая модель дообученная на дипсике. Типа, "продукт шоколадосодержащий". Шаблонные тесты проходит, но стоит чуть шагнуть в сторону, как начинается галлюцинирование.

Вооот, мой косяк. А нейросеть бы ответила без ошибок))

Спасибо, с удовольствием прочитал. Когда-то давно, 15 лет назад, статья про Жизнь стала одной из моих первых на хабре. Сейчас же я активно копаю нейросети, и такая неожиданная синергия приятно удивила)

В том что люди умеют (или думают что умеют) в сарказм, а нейросети пока нет.

На этой площади были расстрелы студентов во время "культурной революции" в Китае. Поэтому у нейросети наложен цензурный фильтр на вопросы по тем событиям на этой площади.

Соответственно, пользователь предположил что цензура лежит на любом упоминании об этой площади, и нейросеть не сможет ответить на вопрос о количестве букв.

Как вам угодно. Я просто предвосхитил ваши дальнейшие стенания на тему кармы и оценок. Всего хорошего.

Поток сознания и ПЯ - это к Джеймсу Джойсу, но никак не на технический сайт.

Подтверждаю. Так, в момент сбоя я сидел на стриме на твиче, и видеопоток отключился, но чат продолжал работать, при том, что в параллельной вкладке твич уже вообще не открывался.

Любопытно. Я ни разу не программист, так, около_сисадмин_компьютерщик. Самые базовые общие принципы помню со времен паскаля в универе. И вот по задачам локализации одной игры, понадобилось мне совершать разные действия с массой xml файлов.

Началось просто с необходимости работы с апи-переводчиком. Понятия не имел как это работает, как писать запросы и прочее, поэтому просто зашёл на чатгпт и попросил его написать код на питоне который вытаскивает из xml значение определённого атрибута (текст диалога) и отправляет его на перевод, после вставляет обратно в файл и сохраняет. И оно заработало. Не с первой попытки, но если что-то шло не так, я просто писал это в чатгпт и он изменял код.

Дальше больше, я начал формировать более сложные задачки (для меня сложные). Типа, сравнить два набора файлов, и по определённому условию заменить один или несколько атрибутов внутри одного из элементов, не трогая остальные. И оно тоже заработало. При этом, что происходит в коде я понимал процентов на 60-70 максимум.

В итоге теперь у меня с десяток разных питон файлов, каждый выполняющий свою узкую задачу, а я уже думаю обернуть это в гуи, тоже с помощью чатгпт конечно.

Мы точно на хабре, а не в разделе комментариев какого-нибудь локального СМИ?

RAT 5, полгода, появилось двойное прокликивание и заскрипело колесо. Какие микрики паяли?
Я минуту пытался хоть что-нибудь сделать с этим логотипом. Даже вверх «слайдил» — стрелочки же есть.
1
23 ...

Информация

В рейтинге
Не участвует
Откуда
Россия
Дата рождения
Зарегистрирован
Активность