https://sanand0.github.io/llmrandom/
Статья о том, что при попытке получить "случайное" число от 0 до 100, LLM возвращает не истинно случайное число, а демонстрируют предвзятость (bias
), обусловленную особенностями обучающих данных (например знаменитое 42, а это отсылка к роману "Автостопом по Галактике"). Причем распределение этих чисел примерно одинаковое от модели к модели (OpenAI GPT-3.5 Turbo
, Anthropic Claude 3 Haiku
, Google Gemini 1.0 Pro
), что говорит о "культурологическом" смещении в вероятностных механизмах.
В общем нейросети это не про рандом.
It picks like humans