Comments 24
Есть опенсорсное расширение для браузеров chatGPTBox - через AI делается переводы, объяснение кода, суммаризация и прочее, включая свои кастомные промты. Chrome, Edge, Firefox.
Если кому надо - пример использования и инструкция по подключению через OpenAI-совместимое API (для себя делал, поэтому там конкретная точка доступа, а так можно к любой подключать)
Спасибо!
Но как я вижу, это не расширение перевода, это интеграция в браузер, через попапы и отдельные менюшки.
Не умаляя достоинств расширений перевода, все-таки обычно хочется контролировать для ИИ контекст и выход. А то, например, будет статья на 64К знаков - так там в выходе сеть что-нибудь потеряет. Или будет переводить что-то скрытое в DOM ненужное...
В chatGPTBox просто довольно эффективно это сделано - выделил фрагмент, ткнул менюшку, читаешь в попапе. Плюс другие допинструменты там же.
Если что, я сам юзаю это расширение года 2 уже как, и очень доволен, один из реально постоянно используемых рабочих инструментов.
А расширения конкретно перевода.... да, там, пардон, в маркете расширений просто каждый тупо продвинуться пытается, поэтому и найти что-то нормальное сложно. Я и это-то в свое время (в 2023) с трудом нашел, уже тогда было все забито "ChatGPT в браузере", ведущими на свои платные сервисы.
Хороший аргумент. Но как у меня происходит
Скрытые элементы не учитываются
if
(cs.display === "none" || cs.visibility === "hidden") {
return
NodeFilter.FILTER_REJECT;
64к знаков это, по меркам gemini 2.5 flash lite с контекстом 1м токенов - ни о чём.
Конечно, это не значит, что моё расширение конкурирует с chatGPTBox. Я его пока не поставил, но, думаю, поставлю сам, протестирую у себя.
64к знаков это, по меркам gemini 2.5 flash lite с контекстом 1м токенов - ни о чём.
А вы выход смотрели - оно норм все 64К переводит? Потому что проблема не во входе, а в умении модели держать выход, еще недавно были ограничения в 4-8К.
Опять же, для кучи моделей (я использую Sonnet в основном) такие ограничения на выход есть.
Желательно добавить openai api endpoint что бы можно было использовать локально запущенные llm, зачем платить если можно локально, например маленькая модель Ministral-8B-Instruct отлично переводит.
Почему такого до сих пор никто не сделал — не понимаю.
Все юзают православный Яндекс браузер и не парятся
Там не ИИ переводчик
Там трансформер. Полноценный текстовый encoder-decoder.
А как он мне ютуб практически налету переводит, да еще и озвучивает разными голосами?
Именно для видеосервисов там отдельная тулза, там уже ИИ. С текстовыми переводами не связано.
Я это так все рассматриваю - если мне нужны переводы, то мне они нужны, по идее, для любого контента. Ну или хотя бы автосубтитры на родном языке с возможностью посмотреть перевод отдельных слов\фраз - что у них и реализовано на разных плеерах вне ютуба. Плевать мне, ИИ там или не ИИ. Щас эту "плашку" клепают куда только можно, чтобы мамонтов доить, или классы собирать, даже когда можно и без этого обойтись. И Ябрузер дает хороший и удобный инструмент из коробки в этом смысле. Хотя че-то он мне как-то не мог перевести - на редите вроде не робит нормально.
Так уж и все? Я не юзаю. Автор, видимо, тоже.
В Edge, если я не ошибаюсь, встроенный переводчик через ChatGPT работает.
Не удаётся установить по инструкции в Chrome (https://github.com/krakotay/ai-translator-chrome?tab=readme-ov-file#installation) ни одним способом:
1. При перетаскивании в окно chrpme://extensions появляется сообщение CRX_REQUIRED_PROOF_MISSING, и CRX-файл удаляется, не устанавливаясь.
2. Папки dist
в исходных файлах нет.
Забавно... Архив crx есть в release, попробуйте там. Сейчас выложу на гитхаб и папку dist
Кажется, выяснил причину, ответил Вам на гитхабе
Как я навайбкодил ИИ-переводчик для браузера, потому что остальные — унылый мусор