Обновить
-1

Пользователь

0,1
Рейтинг
Отправить сообщение

я на прошлой неделе ходил в teamLABs в музее на Сингапуре - нам всем понравилось, реально amazing. но это не монополия - teamLabs есть в японии (даже два), и нагляднее чем в сингапуре. это к тому, что машину можно установить можно где угодно (если ему тому кому надо это угодно в этой конкретной локации) и привезти специально обученых людей проблем не составляет, в не зависимости от того каким алфавитом они пользуются. imho

промпт: где кроме формзы установлены самы современные литографические машины ASML?

claude:

Let me search for current ASML lithography installation locations.Кроме Формозы (Тайваня/TSMC), вот где стоят самые продвинутые EUV-машины ASML:

High-NA EUV (EXE:5000 / EXE:5200B) — самые передовые:

  • Intel, Oregon, USA — собрали первый EXE:5000 на фабрике D1X в апреле 2024, второй — в октябре 2024. В конце 2025 установили EXE:5200B для ноды 14A.

  • Samsung, Hwaseong, South Korea — в марте 2025 получили EXE:5000, став третьим покупателем после Intel и TSMC.

  • SK Hynix, South Korea — в сентябре 2025 установили EXE:5200B на DRAM-фабрике.

  • imec, Belgium — совместная лаборатория ASML и imec, установка в 2024.

Low-NA EUV (NXE:3800E и др.) — массовое производство:

  • Пять компаний используют EUV в массовом производстве: TSMC, Samsung, Intel, SK Hynix и Micron.

  • Rapidus, Hokkaido, Japan — установили NXE:3800E на фабрике IIM-1, массовое производство планируют с 2027.

Географически — фабрики Intel в США и Ирландии, Samsung в Техасе, TSMC в Аризоне.

DUV (не EUV) в Китае — около 1400 DUV-машин установлено, но это для зрелых нод (28nm+). EUV Китаю не поставляется из-за экспортных ограничений.

Планы на 2027: 56 Low-NA EUV сканеров (из них ~20 для SK Hynix, 7 для Samsung, 5 для Intel) и 10 High-NA EUV.

TSMC сейчас в массовом производстве использует Low-NA EUV (NXE:3600D/3800E) на нодах 5nm, 3nm, 2nm. High-NA они пока не используют в продакшене.

Машины того же уровня (Low-NA EUV в массовом производстве) работают у:

  • Samsung — Hwaseong и Pyeongtaek, South Korea (3nm GAA, 5nm)

  • Intel — Oregon и Ireland (Intel 4, Intel 3)

  • SK Hynix — South Korea (EUV DRAM)

  • Micron — Japan и USA (EUV DRAM)

Только эти пять компаний эксплуатируют EUV в массовом производстве — TSMC, Samsung, Intel, SK Hynix и Micron. Плюс Rapidus в Hokkaido установили NXE:3800E, но до массового производства им ещё до 2027.

Итого реально в эксплуатации на уровне TSMC — Samsung и Intel (логика), SK Hynix и Micron (память). Больше никто.

я думаю я уловил ваш сарказм, не совсем понятно только концентрация таких людей именно на Формозе. Тогда следуя этой логике сложности работы с ASML машинами мы их нигде кроме Формозы не можем устанавливать, хотя...

судя по статье основной ресурс это люди, специалисты, которые обучены работать с ASML машинами и имею в этом большой опыт. из статьи не понятно что именно держит этих людей именно на Формозе. т.е. машину можно поставить где угодно (перефразирую - там куда надо) людей можно посадить на авианосец и вывезти туда где машина. теперь вопрос почему это не делают и даже не обсуждают. хотя это плохой вопрос.

я пробовал Q6 (обе модели) - gemma4 переводит литературнее. в чате/сессии разговорный у них одинаковые, но джема лучше понимает опечатки. ну и немецкий у джемы сильно сильно лучше любого qwen.

разве по умолчанию thinkining не включен? у меня на 5060ti получается 45tps но я предпочитаю запускать Q6 от бартовски. на большом контексте скорость падает до 25, но вот беда с промптпроцесингом - всего 500tps и это боль

у маленьких moe моделей отключение thinkining подобно лоботомии. qwen3.6 сильно лучше gemma4 именно в tool calling и лучше держит длинный контекст, но он "китайский" - русский у него так себе и бывает, что "сваливается" в иероглифы если явно не запрещено в темплейте. gemma4 же лучше переводит тексты с/на европейские языки, даже лучше соннета. особенно не технические.

я думаю будет полезно если есть опыт. я не разработчик, но прописал в хуки "железные" правила которые ограничивают модель. Перехватывает каждое действие claude перед выполнением и блокирует нарушения правил из CLAUDE.md: запись в запрещеные каталоги, удаление файлов, em dashes в тексте, фейковые credentials. По сути механический enforcement того что модель может "забыть" или проигнорировать из instructions.

про хуки хорошо но мало, особено от питон разработчика.

потомучто ИИ (любой - ллм эт только начало - хочется верить) это как ткацкий станок, им тоже далеко не все пользовались и сильно не все знали зачем он нужен но ткаский станок дал людям одежду которую не надо думать где взять - а вот просто она есть. практически бесплатно. таже ситуация в электронике и азотных удобрениях - не все пользуются амиачной селитрой - только колхозники )) но все теперь кушают не зная голод. хочется верить что ИИ это примерно тот же масштаб

новые кванты UD похоже именно эту проблему решают

еще один пример как одна llm поговорила с другой )

ну даже они сами подтверждают, что ниодна текущая технология не готова для полноценного ИИ: None of them are particularly close to achieving AGI (Artificial General Intelligence) on their own, but here's the realistic assessment:

Current Status by Approach:

LLMs (GPT/Transformers)

  • Impressive at language and pattern matching

  • Lack true reasoning, planning, and understanding

  • Can't learn continually or transfer knowledge reliably

  • Missing: causal reasoning, world models, genuine comprehension

Symbolic AI

  • Good at logical reasoning and explainability

  • Brittle, doesn't handle uncertainty or ambiguity well

  • Requires manual knowledge encoding (doesn't scale)

  • Missing: learning from experience, common sense, flexibility

LBS/CESP (if these are neural behavior/connectionist systems)

  • Likely face similar limitations to other pure neural approaches

  • Pattern recognition without deep understanding

The Hybrids - Most Promising?

LBS + LLM and LBS + CESP hybrids might be more promising because AGI likely requires:

  • Neural learning (what LLMs do well)

  • Symbolic reasoning (what Symbolic AI does well)

  • Persistent memory and planning

  • Causal understanding

  • Multi-modal integration

Reality Check:

We're likely decades away from AGI. Current estimates from researchers range from 10-50+ years, with many believing it may require fundamentally new approaches we haven't discovered yet.

The hybrid approaches are probably the right direction, but we're still missing critical pieces like true understanding, common sense reasoning, and efficient continual learning.

а есть какаято другая кроме трансформеров?

любая модель с thinking кормит сама себя промптами

вершина линейки был psion 5mx, потом попробовали поиграть в "большие" нетбуки но это не встретило восторга у пользователей, а 5mx так и остался классикой с самой удобной клавиатурой из всех наладоников той эпохи. сдул пыль включил - экран конешно пугает зеленой подсветкой )) но живой. ЗЫ: чекнул оказалось mypsion.ru досихпор живой, надо же.

интернет середины 90х это фидо

еще интересное совпадение, что на момент минимального сближения с землей он будет за солнцем и его нельзя будет наблюдать с земли или земной орбиты.

просто переработки оплачиваются - отсидел лишний час получи 1,500 йен.

но дольше других (как впрочем и меньше) высиживать нельзя, ну только если очень нужно )) денежек подкопить.

проще сразу одним промтом поставить задачу:

Act as a senior game designer & technical architect.

Goal: design an MVP of a simplified “Heroes of Might and Magic III”-style game with 3 core mechanics:

1) World map exploration (turn-based), resource pickup, neutral monsters.

2) Tactical combat on a hex/grid battlefield (turn-based initiative).

3) City building with a small tech tree.

Constraints:

- Platform/stack: Web (TypeScript + React + Canvas)

- MVP scope: 1 playable faction, 6 unit types, 5 resource types, 1 city, 1 skirmish map (32×32 tiles), no multiplayer.

- Non-goals: campaign, save/load, complex AI (only simple heuristic), animations minimal.

Output as a concise GDD with sections:

A. Core loop & turn order (world → city → combat → upkeep).

B. World map: tile types, movement cost, FoW (Y/N), pickup rules, encounter flow.

C. Combat: grid size (e.g., 10×12), initiative, move/attack rules, damage formula, retaliation, morale/luck (omit or simplify), spells (≤4 basic).

D. Units: 6 units (stats table: HP, ATK, DEF, SPD, range, abilities), growth & recruitment costs.

E. Resources: 5 types, income per day, mines/buildings producing them.

F. City building: 8 buildings max (requirements, costs, effects), weekly growth rules.

G. Economy balance: daily incomes/expenses target for a 20–30 min skirmish.

H. AI outline: simple priorities for world (pickup nearby → avoid stronger stacks) and combat (focus lowest EHP, kite for ranged).

I. Data schema: JSON examples for units, buildings, map tiles.

J. Milestones: M0 rules; M1 world map; M2 combat; M3 city; M4 glue/polish; with acceptance criteria.

K. Risks & cut features if over budget.

Limit to ~900–1100 words. Use tables where helpful.

1

Информация

В рейтинге
4 803-й
Зарегистрирован
Активность

Специализация

Системный администратор
Средний
Администрирование Windows