Pull to refresh
1
0.1

Пользователь

Send message

По поводу вкладки в ссылку - я бы сказал, это претензия к IDEA.

Но вообще я разбирался что именно такого особенного в перетаскивании вкладок Vivaldi (её, например, в Firefox перетащить можно, и Firefox создаст страницу).
В списке форматов в drag'n'drop объекте, помимо собственно кастомного формата с вкладкой Vivaldi, есть формат URL содержащий ссылку на страницу открытую во вкладке. Возможно именно на неё IDEA так реагирует.
Другие браузеры URL как отдельный формат не включают, соответствунно перетащить фкладку Firefox назад в Vivaldi не получится, например.

Собственно разбирался потому что думал что проблема в Vivaldi, так как он не может принять вкладку Firefox, оказалось, что проблема в Firefox, потому что он не передаёт данные в совместимом формате.

Как именно они работают? И никогда не видел полноценной безпроблемной замены.

В Opera Presto это работало даже в перетаскиваемых объектах, причём на удивление интуитивно: перетаскивание влево/вправо выделяло текст, вверх/вверх вниз - начинало перетаскивание.

Так же и порядок выделенных элементов - в хромоподобных начинаешь выделять одно, слегка сдвишаешь мышь в часть где по логике должен кончиться текст - и половина страницы внезапно выделена, причём случайные её части.

Причём некоторых вещей из Оперы негде нет до сих пор: Выбор текста в интерактивных элементах до сих пор приключение с незвестным концом, а заставить подстроиться страницу под ширину экрана (не спрашивая мнения сайта об этом) не может ни один браузер, так как это была фича на уровне движка.

Я бы не надеялся на долгосрочные изменения, на самом деле. Многие проекты актуальные во премена ковида сейчас проваливаются/закрываются, так как большенство перестало сидеть дома и им есть чем заняться (ну хотя бы работать)

Но вообще это можно и для виртуальной реальности использовать, как вариант

Ок, мне от подкидывает другое: комедийные зарисовки, фрагменты из фильмов/мульсериалов, да, но англоязычные, всякое про D&D, каких-то блоггеров про ремонт. И ещё кучу всякой фигни, которую я либо сразу же минусую и прокручиваю, либо игнорю канал целиком. (50/50 соотношение того что можно посмотреть и что я игнорю/минусую). И видео с котами :D

edit:

покрутил сейчас шорты, вот что они мне выдали (по тематике):
- блоггер/коты
- хобби/работа с деревом
- игры/warhammer
- Software?
- блоггер/коты
- посты с сайтов/tumblr
- хобби/3d печать
- блоггер/комминксы
- коты
- что-то про гимнастику
- кулинария
- блоггер/коты
- игры/satisfactory
- посты с сайтов/tumblr
- lego
- дикая природа

Мне кажется, что рекомендации для шортов практически независимы от "основного" Youtube, кроме каналов на которые вы подписанны (просто иногда выкидывает шорты с них в ленту). Возможно вы просто получаете дефолтную выдачу для своего региона.

Ещё заметил, что эффект от оценок появляется только на следующий день. Кроме "игнорировать канал", но там эффект в том, что он просто исключается из выдачи для вас сразу после использовния кнопки.

Ну я смотрю...
Вообще, имхо, тостами пользоваться можно, как альтернативой главной и поиска: В shorts можно поставить ссылку на видео, и использовать шорт как превью. Лично у меня наверное половина таких в ленте.

А это сильно зависит от того что вы плюсуете или минусуете (хотя подождите: у вас больше не получится минусовать...)
В целом shorts смотреть можно (пока, как будет после этого изменения я не знаю), но для этого нужно довольно агрессивно минусовать/плюсовать видео, и даже игнорить целые каналы (в меню под тремя точками опция)

Ещё заметил, что в шортах рекомендательный алгоритм работает намного лучше чем на главной.
Но наверное стоит уточнить, что 95% контента на ютубе что я смотрю - англоязычный.

Среднестатистический пользователь перебирает все vpn-приложения в googleplay пока не найдёт рабочее. Или не найдёт. На этом всё.

Как бы логично что у вас в системе такое написанно: потому что она уже приняла такое решение. Вопрос в корректно ли она его приняла.

Итого, ваш ответ - отписка. Ну или ответ Капитана Очевидности, я не знаю...

Если вы хотите придраться к опечаткам, то в этом сообщении есть ещё как минимум три. Удачи в поисках.

Intel феерично зафакапили 13 и 14 поколения процессоров (постепенно в течении 6-24 месяцев выходят из строя из-за проблемного управления питанием, которое запрашивает завышенное напряжение). Им по сути гризит возврат по горантии каждого второго процессора выпущенного за последние 2 года. Я честно говоря не знаю, что и тут может спасти, кроме может быть прямого вмешательства США ("too big to fail").

По моим (делитанстским) наблюдениям, бОльшее значение чем количество параметров имеет сколько памяти под эти параметры используются.

То есть, при одинаковом объёме используемой памяти модель с малым числом параметров в f16 (float 16 bit) даст такое же качество как Q4 (int 4 bit) с бОльшем количеством.

Многие отзываются, что Llama3 сильно страдает от квантования, например. Лично я замечаю разницу между f16 и Q6К - Q6K намного быстрее теряет когерентность и перестаёт следовать коммандам в длинных чатах.

"Был полностью заблокирован и продолжает быть" (Ростелеком)

Страницы загружаются, видео никогда не стартует.

Вот последнее как раз решается просто - собеседование с камерой и созвоны с камерой позже, по крайней мере первое время (некоторые люди не любят использовать камеру по разным причинам).

Ну вообще по поводу быстродействия вопрос вполне себе практичный: как альтернатива, вы можете нафигать в систему ssd до сатурации pci-e по скорости и использовать прямой доступ GPU к этим самым ssd (nvidia gpu это умеют). Другой вопрос сколько это стоить будет, но "не сильно много"... А то llama3 q8 70b на CPU я тоже запустит могу, со скоростью 1.2 token/sec...

Любопытства ради: а какова производительность такого подхода? Скажем, 2 GPU в одной системе против 2х систем с 1 GPU? (все GPU одинаковые)

В моих (довольно скромных) экспериметнах бутылочным горлишком, например при inference llama3 q8 70b с помощью CPU был доступ к памяти - на практике выражалось в том, что увеличене потоков больше 2х не увеличивало производитекльность совершено. (Немного другой случай, но, имхо, показательный)

Так же lamma3 f16 8b на tesla p40 быстрее, чем на gtx 3060 Ti + tesla p40

Зависит от лаптопа. Если у вас есть 8gb vram - старые модели работать будут
Вы можете запустить модель и в обычной RAM, но оно будет считать процессором в течении минуты-двух одну картинку

Зайдите на любой популярный сайт связанный с AI артом. У них, как и у всех виртуальный арт-галерей что я знаю "двойное дно"...

1
23 ...

Information

Rating
3,084-th
Location
Россия
Date of birth
Registered
Activity