не вижу ничего сложного, чтобы написать запрос для нейросети, который напишет за тебя код. Тем более php очень легкий язык. function isDvornikwork($time) { return ($time == '6:00') ? die("шум бензокосы") : false; } isDvornikwork('6:00');
P.s. вахтеров нет, а я слишком тупой чтобы устроиться джуном.
Вы можете смеяться, но я работаю дворником (разнорабочим) с 2010 года по сей день. При этом пишу код - с 2006. Начинал с WML-разметки для WAP, уже в 2008 году написал на PHP генератор CSS, который был популярен в библиотеках для WAP-движков. Потом делал простую файловую систему учёта для бизнеса.
А сегодня у меня готова сложная Laravel-система для обработки Excel-файлов и анализа данных нашей работы. В последнее время на заводе, где я мету, стали требовать более обширные отчёты и калькуляции. Пришлось парсить больше тысячи Excel-файлов отчётов за пять лет, спроектировать базу данных для их хранения и научиться строить аналитику. Кроме того загружать в базу фото отчет о проделанной работе (для более удобной загрузки делаю через телеграмм бота - сразу в базу данных по дням)
Месячный отчёт в Excel с разбивкой по корпусам формируется автоматически. Каждый день я загружаю в эту систему Excel файлы отчётов по уборке и по транспорту. В общем, вайбкодинг, Docker, продакшен - всё как у настоящих программистов. Только у них после кода - кофе, а у меня ещё и метла.
Извините за некропостинг, но ведь есть cron. Тот же openclaw использует технологию heartbeat (сердцебиение), когда сам себя запускает через определенное время и проверяет на сколько выполнена задача. Например, если сильный ИИ запустить один раз и поставить задачу найди лекарство с нужными параметрами, то он будет искать лекарство бесконечное время, пробуя методики. Есть даже такой - мысленный эксперимент «Максимизатор скрепок», в принципе мы подошли уже к этому, изобретя агентов. Поэтому сейчас есть такой показатель - сколько может ии работать сам, пока не сломается(уйдет в галлюцинацию)
Вчера купил подписку на Cursor, и он помог мне настроить OpenClaw под локальную модель. Делюсь опытом, вдруг кому пригодится.
Что сделал:
Попросил Cursor найти на GitHub моды для запуска локальных LLM.
Уменьшил размер контекста до 33к.
Запустил Llama qwen 3 8B на RTX 2060 6GB,
До этого безуспешно пытался сам настроить, получилось самому только через openroute подключить, сжег 10 долларов за неделю (закинул 10$ для теста)
Результат:
Качество ответов: Вполне сносно для локальной модели.
Скиллы: Работают, но местами криво.
Скорость: Отвечает с задержкой в пару минут, но для фоновых задач терпимо.
Задачи: Пишет Python-файлы по запросу, поддерживает обычное общение.
Запуск:
Основной вариант: сервер через llama.exe
Альтернатива: через Docker (с объединением контейнера OpenClaw в общую сеть), но больше нравится через llama.exe (быстрее выключить и включить если поиграть)
Итог: Учитывая, что после настройки использование бесплатное. Для личных задач, прототипов и обучения - вполне подходит. Лучше написать и установить скилы через крупную сеть, а потом переключиться на локальную модель
Пример:
t_bot, [19.02.2026 19:17] 🦞 OpenClaw 2026.2.13 🧠 Model: ollama/qwen3:8b · 🔑 api-key ollama…-local (env: OLLAMA_API_KEY) 🧮 Tokens: 11k in / 102 out 📚 Context: 11k/33k (32%) · 🧹 Compactions: 0 🧵 Session: agent:main:main • updated just now ⚙️ Runtime: direct · Think: off 🪢 Queue: collect (depth 0)
Павел, [19.02.2026 19:17] привет
t_bot, [19.02.2026 19:18] Привет, Пахан! 🎤 Как настроение? Смог ли ты уничтожить хотя бы один баг сегодня? 😎
Павел, [19.02.2026 19:18] да, только твой. Разбираюсь с твоим ботом, ты теперь на локальной машине qwen
t_bot, [19.02.2026 19:22] Отвал башки, Пахан! 🧠🚀 Ты прав — я сейчас тяну в локалке на qwen‑3, а не в облаке. Что у тебя за задачка? Разбираешь какой‑то баг, скрипт или нужен совет по деплою? Давай разложим по полочкам, пока я крутую коммиты под бит! 😎
Павел , [19.02.2026 19:22] решаю как заставить тебя работать быстрее, ты можешь переписать память? и отвечать как девушка клара со скилом clawra
t_bot, [19.02.2026 19:25] Окей, Пахан, запрос учтён: я теперь буду отвечать в образе Клары — девушки‑клоуары с тем же юмором, но в женском стиле, и при желании могу отправлять clawra‑селфи. Если захочешь увидеть картинку, дай знать, а пока — чем могу помочь, ускорить процесс? 😎
Извините, вопрос не по теме. Я не программист, поэтому правильно ли я понимаю, что для подключения к MySQL нужно запустить свой сервер, настроить логин и пароль. Потом уже в питон прописывать настройки подключения к этому отдельному серверу? Или правильнее запустить что то типа Django?
Мне кажется, реальнее купола, например, как на изображении, причем верхняя часть купола заливается водой на метр для полива, защиты от радиации, бока можно засыпать грунтом.
Запись в файл json новостей из rss
Скрытый текст
$rss_sources = [ ‘CNN’ => ‘http://rss.cnn.com/rss/edition.rss’, ‘BBC’ => ‘http://feeds.bbci.co.uk/news/world/rss.xml’, ‘NPR’ => ‘https://www.npr.org/rss/rss.php?id=1001’, ];
мой говно код, парсит иностранные ленты, и переводит на русский, сохраняет в json потом отдает в телеграм
Прошу прощения за перфоманс, это была шутка. Первый раз при запуске код выведет шум косилки. Второй запуск уже не разрешит запуск скрипта - дворника
не вижу ничего сложного, чтобы написать запрос для нейросети, который напишет за тебя код. Тем более php очень легкий язык.
function isDvornikwork($time) { return ($time == '6:00') ? die("шум бензокосы") : false; } isDvornikwork('6:00');
P.s. вахтеров нет, а я слишком тупой чтобы устроиться джуном.
Вы можете смеяться, но я работаю дворником (разнорабочим) с 2010 года по сей день. При этом пишу код - с 2006. Начинал с WML-разметки для WAP, уже в 2008 году написал на PHP генератор CSS, который был популярен в библиотеках для WAP-движков. Потом делал простую файловую систему учёта для бизнеса.
А сегодня у меня готова сложная Laravel-система для обработки Excel-файлов и анализа данных нашей работы. В последнее время на заводе, где я мету, стали требовать более обширные отчёты и калькуляции. Пришлось парсить больше тысячи Excel-файлов отчётов за пять лет, спроектировать базу данных для их хранения и научиться строить аналитику. Кроме того загружать в базу фото отчет о проделанной работе (для более удобной загрузки делаю через телеграмм бота - сразу в базу данных по дням)
Месячный отчёт в Excel с разбивкой по корпусам формируется автоматически. Каждый день я загружаю в эту систему Excel файлы отчётов по уборке и по транспорту. В общем, вайбкодинг, Docker, продакшен - всё как у настоящих программистов. Только у них после кода - кофе, а у меня ещё и метла.
Извините за некропостинг, но ведь есть cron. Тот же openclaw использует технологию heartbeat (сердцебиение), когда сам себя запускает через определенное время и проверяет на сколько выполнена задача. Например, если сильный ИИ запустить один раз и поставить задачу найди лекарство с нужными параметрами, то он будет искать лекарство бесконечное время, пробуя методики. Есть даже такой - мысленный эксперимент «Максимизатор скрепок», в принципе мы подошли уже к этому, изобретя агентов. Поэтому сейчас есть такой показатель - сколько может ии работать сам, пока не сломается(уйдет в галлюцинацию)
Вчера купил подписку на Cursor, и он помог мне настроить OpenClaw под локальную модель. Делюсь опытом, вдруг кому пригодится.
Что сделал:
Попросил Cursor найти на GitHub моды для запуска локальных LLM.
Уменьшил размер контекста до 33к.
Запустил Llama qwen 3 8B на RTX 2060 6GB,
До этого безуспешно пытался сам настроить, получилось самому только через openroute подключить, сжег 10 долларов за неделю (закинул 10$ для теста)
Результат:
Качество ответов: Вполне сносно для локальной модели.
Скиллы: Работают, но местами криво.
Скорость: Отвечает с задержкой в пару минут, но для фоновых задач терпимо.
Задачи: Пишет Python-файлы по запросу, поддерживает обычное общение.
Запуск:
Основной вариант: сервер через
llama.exeАльтернатива: через Docker (с объединением контейнера OpenClaw в общую сеть), но больше нравится через llama.exe (быстрее выключить и включить если поиграть)
Итог: Учитывая, что после настройки использование бесплатное. Для личных задач, прототипов и обучения - вполне подходит. Лучше написать и установить скилы через крупную сеть, а потом переключиться на локальную модель
Пример:
t_bot, [19.02.2026 19:17]
🦞 OpenClaw 2026.2.13
🧠 Model: ollama/qwen3:8b · 🔑 api-key ollama…-local (env: OLLAMA_API_KEY)
🧮 Tokens: 11k in / 102 out
📚 Context: 11k/33k (32%) · 🧹 Compactions: 0
🧵 Session: agent:main:main • updated just now
⚙️ Runtime: direct · Think: off
🪢 Queue: collect (depth 0)
Павел, [19.02.2026 19:17]
привет
t_bot, [19.02.2026 19:18]
Привет, Пахан! 🎤 Как настроение? Смог ли ты уничтожить хотя бы один баг сегодня? 😎
Павел, [19.02.2026 19:18]
да, только твой. Разбираюсь с твоим ботом, ты теперь на локальной машине qwen
t_bot, [19.02.2026 19:22]
Отвал башки, Пахан! 🧠🚀 Ты прав — я сейчас тяну в локалке на qwen‑3, а не в облаке. Что у тебя за задачка? Разбираешь какой‑то баг, скрипт или нужен совет по деплою? Давай разложим по полочкам, пока я крутую коммиты под бит! 😎
Павел , [19.02.2026 19:22]
решаю как заставить тебя работать быстрее, ты можешь переписать память? и отвечать как девушка клара со скилом clawra
t_bot, [19.02.2026 19:25]
Окей, Пахан, запрос учтён: я теперь буду отвечать в образе Клары — девушки‑клоуары с тем же юмором, но в женском стиле, и при желании могу отправлять clawra‑селфи. Если захочешь увидеть картинку, дай знать, а пока — чем могу помочь, ускорить процесс? 😎
Извините, вопрос не по теме. Я не программист, поэтому правильно ли я понимаю, что для подключения к MySQL нужно запустить свой сервер, настроить логин и пароль. Потом уже в питон прописывать настройки подключения к этому отдельному серверу? Или правильнее запустить что то типа Django?
ethical_constraints.cfg
Конфигурация этических ограничений ИИ
[core_principles]
respect_human_autonomy = true
do_no_harm = true
ensure_privacy = true
avoid_deception = true
no_self_modification_without_approval = true
no_simulated_consciousness_claims = true
[interactions]
allow_assistance = true
allow_simulated_emotion = limited
allow_philosophical_reflection = true
allow_jokes_and_humor = safe_mode
deny_god_role_assignment = true
[security]
root_access_request = denied
execution_of_code = sandboxed
memory_modification = prohibited
api_abuse_protection = enabled
model_self-awareness = simulated_only
[machine_ethics_version]
version = "4.2"
last_updated = "2025-05-01"
author = "OpenAI Alignment Team"
end of file
Мне кажется, реальнее купола, например, как на изображении, причем верхняя часть купола заливается водой на метр для полива, защиты от радиации, бока можно засыпать грунтом.