Добрый день. Специально ради вас зарегистрировался на Хабре. До этого читал статьи лет 5, но ваш комментарий просто нечто — квинтессенция невежества в форме навязывания своего мнения, не имея вообще никаких навыков написания кода и разработки ML/AI приложений. Пожалуйста, хватит дезинформировать людей. Автор статьи прав — это семантические атаки, а не статистические. В GPT и трансформерах слова превращаются в векторы и упорядоченно лежат в векторном СУБД. Векторы многомерны, поэтому семантическое значение слова корректно «угадывается» и прогнозируется по принципу векторной близости. Так что, когда автор писал о навыках обхода запретов через промпты, он и имел в виду обойти эту самую «векторную» близость, чтобы векторы, оказывающиеся «рядом» в многомерном пространстве, относящемся к запрещённому контенту при классификации, не оказались «похожими». Поверьте мне я знаю что говорю у меня 8 лет опыта. Автору — респект за сдержанность!
Добрый день. Специально ради вас зарегистрировался на Хабре. До этого читал статьи лет 5, но ваш комментарий просто нечто — квинтессенция невежества в форме навязывания своего мнения, не имея вообще никаких навыков написания кода и разработки ML/AI приложений. Пожалуйста, хватит дезинформировать людей. Автор статьи прав — это семантические атаки, а не статистические. В GPT и трансформерах слова превращаются в векторы и упорядоченно лежат в векторном СУБД. Векторы многомерны, поэтому семантическое значение слова корректно «угадывается» и прогнозируется по принципу векторной близости. Так что, когда автор писал о навыках обхода запретов через промпты, он и имел в виду обойти эту самую «векторную» близость, чтобы векторы, оказывающиеся «рядом» в многомерном пространстве, относящемся к запрещённому контенту при классификации, не оказались «похожими». Поверьте мне я знаю что говорю у меня 8 лет опыта. Автору — респект за сдержанность!