Давайте писать только низкоуровневый и оптимальный код!
А лучше сразу на машинном языке!)
Моё отношение к использованию нейронок в программировании, это ускорение прототипирования кода, большими мазками накидывать большой объём того же кода за минуты, а не часы.
Да, человек не понимающий в программировании далеко не уйдёт с вайбкодингом. На первой же ошибке, с которой не справится нейросеть, неумеющий прогать впадёт в отчаяние.
Хорошего программиста нейросеть бустит, плохому даст мнимое ощущение, что он многое может, но по факту не справится с нормальным проектом.
Так же не отрицаю, что из-за нейросетей идёт деградация при программировании. Тема непростая. Если бездумно кодить через нейросети, ты отупеешь, если понемногу, рост навыков и знаний будет очень низкий, но вот кодиты будешь очень быстро)
Опять же, это моё мнение, за которое меня видимо сейчас забросают помидорами))) 🍅
Прикол Codex в том, что это не просто нейронка, это системный подход
Наверное, это сравнимо с функцией Thinking (обдумывание) у нейронок
С обдумыванием они подходя к задачи системно, с разных сторон, ставя сами себе задачи, а не в тупую генерят ответ
Тут так же, Codex может от одного запроса сделать правки в 20 файлах и создать ещё 10, и это с большой вероятностью сразу заработает и тебе не надо будет руками вставлять код по кусочкам в свой
Пока опенсорс подобных инструментов я не видел
Вот как появятся, вот тогда можно будет подобное заявлять))
И то, это как заявления, что "у себя можно запустить Chat GPT", а по факту запускают очень слабую и тупую нейронку, которую не стоит сравнивать с гигантами рынка
К сожалению, я не особо разбираюсь в писательстве, как редактор.
Но по моему суждению, канал про Серёгу или про нейрони создавал под себя и мне интересно.
Но нехватает изюминки
Думал, что как раз подписчики будут накидывать дичь в комменты и это и будет та изюминка) Буду наблюдать, как нейронка пытается не написать полную дичь и не свернуть с пути) А может и даже наблюдать, как она пойдёт по кривой)))
Я пока не погрузился, думал, что можно почти за бесплатно получить классный инструмент. Но когда начал работать с модельками, вышел в то, что на слабом железе только очень тупые модельки, которые ещё и долго думать будут. Мощное железо, для реально мощных моделей будет стоить миллионы, даже в аренду, тот же яндекс предлагает железо за пару лямов в месяц арендовать...
Так что, обманчивая мысль, что можно LLM запустить дома и она заменит Chat GPT и остальных, лично для меня это всё враньё!
Но буду рад эту тему обсудить! Может есть что-то, чего я не знаю
Видимо) Но мне показалось интересным возможность интерактива, как игра, а что будет дальше, как можно повлиять на сюжет.
Ну и по моему личному мнению, нейронки сейчас достойно пишут, если их настроить хорошо и промт правильный задать, то отличить текст от человеческого становится сложно.
И получил даже от неё очень хороший ответ, даже без обдумывания.
Так как она обучена на каласальном объёме данных, то в ней уже есть примеры как кодированный текст превращается в обычный и наоборот, и просто на основе этого она может кодировать и декодировать текст на лету, даже не обдумывая.
Но на этом решил не остановить, и зашифровал через ключ. Версия 4o не справилась. 5 версия без обдумывания дала ответ сразу.
Думаю, что если взять и создать нейронку чисто под задачи шифрования, она порвёт всё и вся. Возможно такое даже уже есть.
Thinking — это не сама нейросеть, а алгоритм, который решает поставленную задачу через неё.
Текст, который мы отправляем в нейросеть, прогоняется через неё несколько раз с разными параметрами. Как именно — зависит от алгоритма на стороне платформы, но в целом это выглядит так:
Ставится задача: разбить введённый текст на пул подзадач — что нужно сделать и что в итоге получить.
Каждый элемент пула обрабатывается отдельно, и мы получаем результаты.
Все полученные результаты собираются и ещё раз отправляются в нейросеть, чтобы на основе всей совокупности информации получить ответ.
Так и происходит «обдумывание». Кроме того, нейросеть не всегда движется по строгому линейному пути: она постоянно перепроверяет ответы и циклически уточняет решение, пока не получит релевантный результат.
Если в 2 словах, это необходимо, чтобы токены группировались по смыслу в многомерном пространстве. Но этот процесс уже происходит на стороне нейронки, когда мы её обучаем, так что подробнее напишу в следующий статье.
Roman: Мешает ли разнообразие стилей в статье восприятию или нет.
Chat GPT: Ответ на этот вопрос может быть субъективным, так как восприятие стиля статьи может зависеть от предпочтений и опыта каждого читателя. Однако, в целом, разнообразие стилей в статье может иметь как положительное, так и отрицательное влияние на восприятие.
Положительное влияние разнообразия стилей в статье может заключаться в том, что оно может сделать текст более интересным и привлекательным для широкой аудитории. Разнообразие стилей может помочь привлечь внимание разных читателей, которые предпочитают разные стили письма. Это может сделать статью более доступной и понятной для разных групп людей.
Однако, слишком большое разнообразие стилей в статье может также затруднить восприятие и понимание текста. Если стили слишком сильно отличаются друг от друга, это может создать путаницу и затруднить понимание основной идеи статьи. Читатели могут испытывать трудности в переходе от одного стиля к другому и в адаптации к разным языковым и стилистическим особенностям.
Таким образом, разнообразие стилей в статье может быть полезным, если оно сбалансировано и помогает привлечь внимание разных читателей. Однако, слишком большое разнообразие стилей может затруднить восприятие и понимание текста.
Красава!)
Похожего мнения
Лайки кончились, ставлю такой 👍
Блин
Давайте тогда и кодить не ООП
Давайте писать только низкоуровневый и оптимальный код!
А лучше сразу на машинном языке!)
Моё отношение к использованию нейронок в программировании, это ускорение прототипирования кода, большими мазками накидывать большой объём того же кода за минуты, а не часы.
Да, человек не понимающий в программировании далеко не уйдёт с вайбкодингом. На первой же ошибке, с которой не справится нейросеть, неумеющий прогать впадёт в отчаяние.
Хорошего программиста нейросеть бустит, плохому даст мнимое ощущение, что он многое может, но по факту не справится с нормальным проектом.
Так же не отрицаю, что из-за нейросетей идёт деградация при программировании. Тема непростая. Если бездумно кодить через нейросети, ты отупеешь, если понемногу, рост навыков и знаний будет очень низкий, но вот кодиты будешь очень быстро)
Опять же, это моё мнение, за которое меня видимо сейчас забросают помидорами))) 🍅
Мой косяк, не токены, а кредиты (щас поправлю).
Какая-то внутренняя валюта для генерации.
Прикол Codex в том, что это не просто нейронка, это системный подход
Наверное, это сравнимо с функцией Thinking (обдумывание) у нейронок
С обдумыванием они подходя к задачи системно, с разных сторон, ставя сами себе задачи, а не в тупую генерят ответ
Тут так же, Codex может от одного запроса сделать правки в 20 файлах и создать ещё 10, и это с большой вероятностью сразу заработает и тебе не надо будет руками вставлять код по кусочкам в свой
Пока опенсорс подобных инструментов я не видел
Вот как появятся, вот тогда можно будет подобное заявлять))
И то, это как заявления, что "у себя можно запустить Chat GPT", а по факту запускают очень слабую и тупую нейронку, которую не стоит сравнивать с гигантами рынка
К сожалению, я не особо разбираюсь в писательстве, как редактор.
Но по моему суждению, канал про Серёгу или про нейрони создавал под себя и мне интересно.
Но нехватает изюминки
Думал, что как раз подписчики будут накидывать дичь в комменты и это и будет та изюминка)
Буду наблюдать, как нейронка пытается не написать полную дичь и не свернуть с пути)
А может и даже наблюдать, как она пойдёт по кривой)))
Интересно
Лично меня локальные LLM сильно разочаровали.
Я пока не погрузился, думал, что можно почти за бесплатно получить классный инструмент. Но когда начал работать с модельками, вышел в то, что на слабом железе только очень тупые модельки, которые ещё и долго думать будут. Мощное железо, для реально мощных моделей будет стоить миллионы, даже в аренду, тот же яндекс предлагает железо за пару лямов в месяц арендовать...
Так что, обманчивая мысль, что можно LLM запустить дома и она заменит Chat GPT и остальных, лично для меня это всё враньё!
Но буду рад эту тему обсудить! Может есть что-то, чего я не знаю
Видимо)
Но мне показалось интересным возможность интерактива, как игра, а что будет дальше, как можно повлиять на сюжет.
Ну и по моему личному мнению, нейронки сейчас достойно пишут, если их настроить хорошо и промт правильный задать, то отличить текст от человеческого становится сложно.
Специально взял модель постарше!
И получил даже от неё очень хороший ответ, даже без обдумывания.
Так как она обучена на каласальном объёме данных, то в ней уже есть примеры как кодированный текст превращается в обычный и наоборот, и просто на основе этого она может кодировать и декодировать текст на лету, даже не обдумывая.
Но на этом решил не остановить, и зашифровал через ключ.
Версия 4o не справилась.
5 версия без обдумывания дала ответ сразу.
Думаю, что если взять и создать нейронку чисто под задачи шифрования, она порвёт всё и вся. Возможно такое даже уже есть.
Вы правы!
Спасибо за пример!
Thinking — это не сама нейросеть, а алгоритм, который решает поставленную задачу через неё.
Текст, который мы отправляем в нейросеть, прогоняется через неё несколько раз с разными параметрами. Как именно — зависит от алгоритма на стороне платформы, но в целом это выглядит так:
Ставится задача: разбить введённый текст на пул подзадач — что нужно сделать и что в итоге получить.
Каждый элемент пула обрабатывается отдельно, и мы получаем результаты.
Все полученные результаты собираются и ещё раз отправляются в нейросеть, чтобы на основе всей совокупности информации получить ответ.
Так и происходит «обдумывание».
Кроме того, нейросеть не всегда движется по строгому линейному пути: она постоянно перепроверяет ответы и циклически уточняет решение, пока не получит релевантный результат.
Понял вас, учту на будущее, и чуть позже займусь и поправлю текст.
Хоть и проверял, но видимо недостаточно.
Это хороший вопрос!
У меня есть поверхностная статья про токены, там я ужедил внимание Векторам, можете там как раз почитать)
https://neiro-hub.ru/articles/10
Если в 2 словах, это необходимо, чтобы токены группировались по смыслу в многомерном пространстве. Но этот процесс уже происходит на стороне нейронки, когда мы её обучаем, так что подробнее напишу в следующий статье.
Если датасет у нас средний, и проходок мало, то токены буду только кусочками слов.
Например если зайти в токинизатор от Chat GPT, в старую версию 3.5, то получим разбивку не похожую на слова:
https://neiro-hub.ru/static/uploads/21c9231d7493a882.png
(с телефона фото не смог загрузить)
В новой версии 4o уже токен больше бъётся на слова.
В разных ответах, он по разному отвечает "в", "до"
На прямой ответ про 2022 год, он сказал, что имеет о нём информацию
Так же я решил позадавать ему вопросы про январь
Не буду утверждать, что он сказал верно, но то что я нашёл в интернете, как раз описывает январь
Только что проверил
Да, танцы с бубном остались((
Боюсь, в ближайшее время мы такой роскоши не получим, спасибо хоть за это
За него платить не надо, он бесплатный
Вы можете приобрести подписку Pluse, она даст доступ к 4 версии
Но для большинства задач хватает бесплатной версии
Убрал сайт по покупке SMS в блок спойлера, надеюсь теперь это не похоже на рекламу
Да я блин сам ради статьи сотку закинул!!!
Просто изначально на другом сайте покупал, у меня не работало и я просто деньги потратил, на этом всё работает
Я даже не писал как аккаунт регистрировать в нём, просто вскользь упомянул
И уточнил, что можно другоц использовать
Roman:
Мешает ли разнообразие стилей в статье восприятию или нет.
Chat GPT:
Ответ на этот вопрос может быть субъективным, так как восприятие стиля статьи может зависеть от предпочтений и опыта каждого читателя. Однако, в целом, разнообразие стилей в статье может иметь как положительное, так и отрицательное влияние на восприятие.
Положительное влияние разнообразия стилей в статье может заключаться в том, что оно может сделать текст более интересным и привлекательным для широкой аудитории. Разнообразие стилей может помочь привлечь внимание разных читателей, которые предпочитают разные стили письма. Это может сделать статью более доступной и понятной для разных групп людей.
Однако, слишком большое разнообразие стилей в статье может также затруднить восприятие и понимание текста. Если стили слишком сильно отличаются друг от друга, это может создать путаницу и затруднить понимание основной идеи статьи. Читатели могут испытывать трудности в переходе от одного стиля к другому и в адаптации к разным языковым и стилистическим особенностям.
Таким образом, разнообразие стилей в статье может быть полезным, если оно сбалансировано и помогает привлечь внимание разных читателей. Однако, слишком большое разнообразие стилей может затруднить восприятие и понимание текста.
——————————
Вещь субъективная:)
Так что я вас и спрашиваю
Нет, это моё кривое выделение) пытаюсь смысл подчеркнуть
Мешает?
Тут вынужден не согласится!
Писать большие проекты на нём не выйдет, НО небольшие сайты, функции или какие-то куски кода, выходит очень даже круто!
Тема большая и сложная, как-нибудь напишу статью на тему программирования с помощью Chat GPT.
А пока могу похвастаться сайтом, который я написал с помощью него.