Pull to refresh
9
0.7
Send message

Как раз это ИИ. И он не ищет, он генерирует и именно по этой причине и страдает "галлюцинациями".

Как раз это не ИИ!

Он именно что ищет - отключите ему языковую модель, много он вам нагенерит?

Генерит ответы он уже из найденных кусков. Соответственно - чего нет в базе данных, того не будет и в выдаче. Отдельным бонусом идёт вероятность нагенерить шизофазии из корректно найденных кусков))

Я ДипСик погонял и в хвост, и в гриву - и на фактах, и на логике, и на фантазировании... В данный момент(!) его практическая ценность для меня на уровне... Акинатора)) Тоже по началу есть вау-эффект, который очень быстро сменяется зевотой... В "данный момент" выделил потому, что тут очевиден количественный рывок (модели будут всё более объёмными), которой опосредованно перейдёт в качество. Но каким либо "интеллектом" тут и не пахнет...

Не знаю, сарказм или нет (судя по треду, кстати, многие как сарказм это воспримут). Но это реально проблема - в ч/б не так-то и просто перевести. Скажем так, перевести просто, очень трудно выбрать - как именно?

Суть ч/б изображения - адекватно передать цветовой диапазон посредством яркостного. Тут очень много переменных (прежде всего зависящих от сюжета, даже не от химии - на ч/б частенько снимали с конверсионными светофильтрами).

"Насыщенность в ноль" - самый убогий вариант. Уж лучше тогда просто взять яркостный канал (L из Lab). В "сферическом вакууме" по дефолту юзают R30-G60-B10, на некоторых сюжетах целиком берут зелёный... И не от хорошей жизни, синий канал - всегда самый шумный. Красный - очень контрастный, но для портретов рулит. И т.д. и т.п.

До кучи прибавьте ко всему этому "цветную экспонометрию" и, порой, "адовую нелинейность" химических фотоматериалов... И в итоге да, ч/б != ч/б. Всё зависит от "насмотренности"...

Да, я с вот этим перепутал:

Какой наименьший пятимерный гиперкуб можно сложить из единичных гиперкубиков, так чтобы из того же самого числа единичных гиперкубиков можно было образовать четыре меньших гиперкуба и при этом не осталось бы ни одного лишнего гиперкубика?

Ответ: это гиперкуб размером 144 X 144 X 144 X 144 X 144.

Хорошо известно, что любое простое число, превышающее 3, всегда оказывается на единицу больше или на единицу меньше некоторого числа, кратного 6.

Подождите, вы так с ходу термин "натуральные" юзаете. Давайте вначале с ними разберёмся)) 0 - это натуральное число?

Я надысь спрашивал нейросетку насчёт принципа Ферма - знаменитый парадокс "откуда фотон, при конечной скорости света, знает где находится кратчайший быстрейший путь, если он ещё не долетел до конца?"

Ответила что-то типа "можно считать это результатирующей картиной интерференции для всех возможных путей". С сопротивлением электрического тока, видимо, та же фигня))
Имхо, все эти релятивистские эффекты проще рассматривать именно с "точки зрения" волны, а не частицы.

А потом ещё сверху всем этим (и на всех масштабах материи) погоняет постулат второго начала термодинамики, который тоже надо как-то вписать в квантовую механику...

Это какое-то частное эмпирическое решение "задачи трёх тел"?

А зачем ссыль на линейную алгебру? Это же диофантов анализ.

А если мысленно поместить в начало координат отрезок? Для чего нам направление в этом контексте? И куда эти векторы направлены?

Почему вы координаты называете вектором, да ещё приписываете их неким абстрактным математикам?

А мне почему-то всегда в таких случаях вспоминаются годы жизни сэра Исаака Ньютона - 1642 - 1727, 84 года. И это, к слову, были времена "Великой эпидемии чумы"...

А зачем тут векторы? Этот 8-мерный тетраэдр не статичный?

Алло, мы на Хабре!)) Что значит "безумное количество вычислений"? В флопсах сколько? И сколько для этого надо энергии? "Три ущелья" наверное полностью пашут на потребляемую процессорами DeepSeek энергию?

K5-то откуда взялось? Нейросеть ни разу не упоминала это (хотя вообще не удивлюсь что она просто забыла про К5).
Да и не перебирает она... Для неё уже проблема просто повторить ключ до заданной длины - постоянно закапывается в бесконечный цикл... Вообще никакие расчёты нельзя вести))

Собственно - это правильное и ожидаемое поведение, нейросеть специально тренируют, чтобы она воспринимала вопросы in common sense, а не буквально. Требовать от нее иного - этого как требовать от молотка, чтобы у него был мягкий боек.

Нет. Не согласен. Это неправильное и неожидаемое поведение - это буквально подгонка условия под ответ. Т.е. вместо того, чтобы поискать другое решение, нейросеть начинает трактовать условие с различными допущениями. При этом у пользователя будет создаваться иллюзия, будто нейросетка действительно рассмотрела другое решение (а не условие).

Вот полюбуйтесь - оно просто генерит ответы от балды))

Я не думаю, что в мире существует человек, который сможет за сколько-нибудь адекватное время прийти к результату 20 кубиков без визуализации.

А причём здесь человек вообще? Человек как раз будет решать задачу, а не рандомно выдавать ответы похожие на правду.

Ну и задачу сразу решили - 20 кубиков выводится очень легко, достаточно просто разместить 7 квадратов на одной плоскости удовлетворяющих условию. Но это же не максимальный ответ. А как раз самый очевидный.

Вот если бы нейросеть с ходу выдала 24 - тогда я был бы уверен, что её обучали в том числе и на Гарднере))

Конечно был контекст - я попросил K4 дешифровать по Виженеру с ключом BERLIN (он мне по началу втирал, что BERLIN - это ключ к К4).

Представляете, как у меня челюсть отвисла, когда он выдал осмысленный текст

Чуть позже заметил, что даже длина текста не совпадает...

Ну или вот пример того, как нести отборную дичь на самых серьёзных щщах:

Оно в любой момент может просто начать генерировать довольно правдоподобно выглядящую ерунду... Ничего же не изменилось - оно не отвечает на вопросы, оно "генерирует правдоподобные ответы"))

У меня вообще поломался))

UPD:)))

Queen ему что-то совсем не заходит))
Queen ему что-то совсем не заходит))

И наверняка не за горами корректный мат. аппарат у них.

Окститесь))

Вот, я маленько поигрался с терминологией))
Пара "наводящих вопросов" и дипсик поплыл...
Пара "наводящих вопросов" и дипсик поплыл...

Information

Rating
1,903-rd
Registered
Activity