Может в .net 2.0? Версии языка отражаются только на синтаксис, а никак не на библиотеках типов, которые так то никто не мешает хоть из бейсика использовать
предыдущий пользовательский опыт грубо отбрасывается
Ну если бы он не отбрасывался, мы бы до сих пор на лошадях ездилию В лучшем случае
а я вынужден бороться с ветряными мельницами на ровном месте
с линуксом бороться приходится как правило гораздо больше
А если Вы серьезно спрашиваете про то, какую графическую оболочку выбрать под линукс, то я даже не знаю, что посоветовать. Посмотрите видосиков про разные и выберите ту
Нет, совет мне не нужен, спасибо, я знаком со всеми, и не видел ни одной где бы не было как вы говорите "заскоков". Xfce вообще всерьез воспринимать не могу, она элементарно не умеет с hi-dpi мониторами даже работать, простейщие вещи которые в маке и винде уж лет двадцать как отлажены там ну в совсем зачаточном состоянии и работают криво-косо.
проблемы с 30-битными дисплеями (я даже не знал, что такие бывают)
Да нынче любой более менее приличный монитор в сегменте от 400-500 долларов 30-битный. А уж в сфере работы с изображениями это мастхэв уж лет 20-25 как. Но линукса в этой сфере потому и нет, что с графикой там и по сей день все через пень-колоду.
Поясните что вы имеете ввиду? У меня на рабочем месте ноутбук подключен к проводной сети, при этом в нем самом нет ethernet-порта и вот честно не понимаю зачем он там может быть нужен. В офисах где нет персонального рабочего места, все обычно покрыто wifi, тоже никаких проблем.
без идиотских заскоков в интерфейсе от авторов в стиле «я так вижу»
Уточните пожалуйста, о каком окружении идет речь? Все те что я видел объективно содержат этих заскоков ну уж точно никак не меньше чем мак или виндовс. Вопрос лишь где эти заскоки совпадают с "я так вижу" конкретного пользователя, а где нет.
Возвращаясь к изначальному вопросу - все равно не совсем понятно зачем даже в сценарии использовании на рабочем месте ноутбуку отдельный ethernet-порт, тем более если это требует жертвовать габаритными характеристиками. Практически все современные модели подключаются через один usb-c кабель к монитору в который собственно и воткнута вся периферия и по совместительству он же является и зарядкой.
Где-то в полевых условиях (конференции итп) без мыши работать вполне можно. Только тачпад должен быть нормальный. Почему кроме эппла никто не осилил сделать тачпад для людей а не для марсиан этого я не понимаю, не такое сложное устройство вроде.
клавиатуры и подставки под ноутбук поднимающей его на уровень глаз
екоторые гики не используют Ubuntu, например, потому, что дистрибутив слишком уж user-friendly. Но таких немного — по большей части поклонники Linux хорошо относятся к Ubuntu.
Гном который там из коробки вот нифига не юзер-френдли, оболочка кривая глючная и убогая, а системные утилиты из коробки куцые затычки. Убунтой можно комфортно пользоваться если это либо WSL либо на минимальную установку все нужное поставить самому, либо если это какой то вовремя форкнутый дистрибутив вроде Mint, где заметно что разработчики хотя бы запускали сами то что у них получилось.
Но если пофантазировать, что в силах, то "ИИ" сам вправе выбирать себе "кодстайл", который для человеков может выглядеть как write-only
В идеале если он будет сразу в машинном коде писать, это потребует меньше ресурсов как для создания так и для выполнения таких программ. Но такому обучать отдельно надо - эту информацию с гитхаба и стековерфлоу не подчерпнуть. Ну и естественно только когда научат это делать без детских ошибок
Скажем так, для поддерживаемости "ИИ" должен понимать что созданный им код делает. Не на уровне гипотез на основе сопоставления со схожими примерами с гитхаба, а именно бизнес-логику, причем в рамках всего проекта целиком, а не одного маленького файла. А до этого пока далековато. Без этого программа перерастет в нерабочее состояние очень быстро. Добавляя новые костыли он будет сам себе усложнять всю последующую работу, и требовать все больше и больше вычислительных ресурсов. А формулировать задачу что и как надо исправить окажется дольше чем написать то же самое на языке программирования. И дороже чем 100 индусов за еду
И правильно делает. Не ставилась задача писать чистый код, ставилась задача лишь бы работало - результат в точности который заказывали.
И вот натравливаем такой код "лишь бы работало" на реальные данные и он начинает работать неделю вместо 30 секунд. И зачем такое нужно? А как это исправить - никак.
проблема что все думают что ИИ это всемогущий телепат, должен мысли ваши читать что вы там подразуменевали
Точнее так так думают только несведущие в IT люди вроде автора видеоролика, программисты то как раз понимают что к чему и потому и минусуют подобные опусы.
Ну так работающее то оно и сейчас, речь про то что код нечитаемое write-only месиво, и какие то редкие баги там чинить будет нереально. А нейросеть любой фикс будет делать в виде нагромождения костылей, потому что у нее нет критического мышления и способности оценить написанное. Сомневаюсь даже что она проанализирует свое же творение
.net это не только c#, так что это все таки ошибка, а для "глаз эксперта" так даже имхо довольно грубая
Может в .net 2.0? Версии языка отражаются только на синтаксис, а никак не на библиотеках типов, которые так то никто не мешает хоть из бейсика использовать
Ну если бы он не отбрасывался, мы бы до сих пор на лошадях ездилию В лучшем случае
с линуксом бороться приходится как правило гораздо больше
Нет, совет мне не нужен, спасибо, я знаком со всеми, и не видел ни одной где бы не было как вы говорите "заскоков". Xfce вообще всерьез воспринимать не могу, она элементарно не умеет с hi-dpi мониторами даже работать, простейщие вещи которые в маке и винде уж лет двадцать как отлажены там ну в совсем зачаточном состоянии и работают криво-косо.
Да нынче любой более менее приличный монитор в сегменте от 400-500 долларов 30-битный. А уж в сфере работы с изображениями это мастхэв уж лет 20-25 как. Но линукса в этой сфере потому и нет, что с графикой там и по сей день все через пень-колоду.
Поясните что вы имеете ввиду? У меня на рабочем месте ноутбук подключен к проводной сети, при этом в нем самом нет ethernet-порта и вот честно не понимаю зачем он там может быть нужен. В офисах где нет персонального рабочего места, все обычно покрыто wifi, тоже никаких проблем.
Так как раз то что его там нет и есть главное преимущество других дистрибутивов перед убунтой
Уточните пожалуйста, о каком окружении идет речь? Все те что я видел объективно содержат этих заскоков ну уж точно никак не меньше чем мак или виндовс. Вопрос лишь где эти заскоки совпадают с "я так вижу" конкретного пользователя, а где нет.
А чем это лучше чем mint?
Возвращаясь к изначальному вопросу - все равно не совсем понятно зачем даже в сценарии использовании на рабочем месте ноутбуку отдельный ethernet-порт, тем более если это требует жертвовать габаритными характеристиками. Практически все современные модели подключаются через один usb-c кабель к монитору в который собственно и воткнута вся периферия и по совместительству он же является и зарядкой.
Где-то в полевых условиях (конференции итп) без мыши работать вполне можно. Только тачпад должен быть нормальный. Почему кроме эппла никто не осилил сделать тачпад для людей а не для марсиан этого я не понимаю, не такое сложное устройство вроде.
Вы это с собой носите вместе с ноутбуком?
Гном который там из коробки вот нифига не юзер-френдли, оболочка кривая глючная и убогая, а системные утилиты из коробки куцые затычки. Убунтой можно комфортно пользоваться если это либо WSL либо на минимальную установку все нужное поставить самому, либо если это какой то вовремя форкнутый дистрибутив вроде Mint, где заметно что разработчики хотя бы запускали сами то что у них получилось.
Интересно, но зачем? У них же прекрасные штатные стойки для бор машин есть - MB200 например, она хотя бы металлическая
Интересно что будет когда на вход для обучения начнет поступать все больше и больше ложной информации сгенерированной этой же сетью
В идеале если он будет сразу в машинном коде писать, это потребует меньше ресурсов как для создания так и для выполнения таких программ. Но такому обучать отдельно надо - эту информацию с гитхаба и стековерфлоу не подчерпнуть. Ну и естественно только когда научат это делать без детских ошибок
Скажем так, для поддерживаемости "ИИ" должен понимать что созданный им код делает. Не на уровне гипотез на основе сопоставления со схожими примерами с гитхаба, а именно бизнес-логику, причем в рамках всего проекта целиком, а не одного маленького файла. А до этого пока далековато. Без этого программа перерастет в нерабочее состояние очень быстро. Добавляя новые костыли он будет сам себе усложнять всю последующую работу, и требовать все больше и больше вычислительных ресурсов. А формулировать задачу что и как надо исправить окажется дольше чем написать то же самое на языке программирования. И дороже чем 100 индусов за еду
Экстраполяция - опасная штука. Очень многие вещи в IT прекрасно работают только на хеловорлдах.
А оно понимает что это?
Так я ж и не про вас, а про автора ролика и манагеров всяких
верим (нет)
И вот натравливаем такой код "лишь бы работало" на реальные данные и он начинает работать неделю вместо 30 секунд. И зачем такое нужно? А как это исправить - никак.
Точнее так так думают только несведущие в IT люди вроде автора видеоролика, программисты то как раз понимают что к чему и потому и минусуют подобные опусы.
Ну так работающее то оно и сейчас, речь про то что код нечитаемое write-only месиво, и какие то редкие баги там чинить будет нереально. А нейросеть любой фикс будет делать в виде нагромождения костылей, потому что у нее нет критического мышления и способности оценить написанное. Сомневаюсь даже что она проанализирует свое же творение