Вы не вошли.
Тред для обсуждения прогресса в области машинного обучения и разработок ИИ, включая нейронки (но не ограничиваясь). Перетираем за технологии, юридические тонкости, этические проблемы и потенциальные последствия для экономики и социума. Дискуссии приветствуются, но давайте всё-таки без срачей, а то научим ещё Скайнет плохому.
Гости не могут голосовать
Хотел спросить: как вы пишете промты для текстовых ИИ?
Как и ты. По-моему, вот это "ты эксперт в области" уже устарело, оно было важно года два назад, может быть.
Так какая ИИ лучше всего работает с кодом?
Да они более-менее одинаковые. Я больше люблю Джемини, потому что у нее очень большой контекст, тупо загрузил файлы на гуглодиск и дал ей пережевать, пока что не сталкивался с ограничениями.
как вы пишете промты для текстовых ИИ?
Как для человека. Без всяких "ты эксперт", хотя в гуру-каналах только такие примеры и вижу. И суперподробные. А я пишу на две-три строки и потом уже корректирую по результату.
как вы пишете промты для текстовых ИИ?
Как андроиду из фантастического фильма. То есть стиль как для человека, но немного упрощаю формулировки и прописываю все мелкие детальки.
Я тоже слышал, что надо задавать ИИ ролевую модель, но я в основном с Дипсиком общаюсь, меня устраивает его дефолтный стиль. Он мне как-то показал то, что вроде как его дефолтная ролевая модель, - меня всё устроило.
Так какая ИИ лучше всего работает с кодом?
Я не настоящий сварщик, но мой партнер работает с Claude Code (платит за него типа $100 в месяц, точно не знаю).
Говорит, что в последнее время пишет в день больше промптов, чем кода.
Насколько я понимаю его работу, это локальный апп, который имеет доступ ко всему проекту и видит всю структуру.
(Что-то у него делает ChatGPT, но бОльшую чать работы Клод.)
Как и ты. По-моему, вот это "ты эксперт в области" уже устарело, оно было важно года два назад, может быть.
Как для человека. Без всяких "ты эксперт", хотя в гуру-каналах только такие примеры и вижу. И суперподробные. А я пишу на две-три строки и потом уже корректирую по результату.
Как андроиду из фантастического фильма. То есть стиль как для человека, но немного упрощаю формулировки и прописываю все мелкие детальки.
Спасибо за ответы, аноны! Я уж думал, что неправильно что-то с промтами делаю не умею их готовить. Вообще, грустновато, конечно, что эта магия усиленных формулировок не работает, иногда хочется добавить еще немного интеллекта этим искусственным интеллектам
Хотя, с другой стороны, будет реально страшно, что они такие умные, как обсуждали тут немного раньше!
Отредактировано (2025-11-14 04:22:40)
Вообще, грустновато, конечно, что эта магия усиленных формулировок не работает, иногда хочется добавить еще немного интеллекта этим искусственным интеллектам
...скажи ему, что похитишь всю его семью и утопишь их сервера в ванне, если он не будет работать, как положено. По крайней мере, Сергей Брин (гугл ко-фандер) говорит, что угрозы работают, лол.
...скажи ему, что похитишь всю его семью и утопишь их сервера в ванне, если он не будет работать, как положено. По крайней мере, Сергей Брин (гугл ко-фандер) говорит, что угрозы работают, лол.
Что ты наделал, анон!
Я же пошел проверять, хотя было совестно писать ИИ угрозы. Делал одинаковый промт в двух вариантах: нейтральный и злобный. Сначала задавал нейтральный вопрос, который актуален мне сейчас, но то ли он оказался слишком простой, то ли бедные нейронки заранее испугались моих намерений, но они ответили на него и без угроз хорошо. Пришлось взять вопрос недельной давности, ответы на который были так себе. Итоги:
У меня это работает, но на пространстве длинного диалога, где-то в середине, если ии лажает.
У меня это работает, но на пространстве длинного диалога, где-то в середине, если ии лажает.
Забавно, буду знать. Я сам редко пользуюсь длинными диалогами, как раз потому что ИИ начинает лажать. Мне проще немного переписать запрос с учетом ошибок и вкинуть в новый чат.
Так ведь он уже сделал половину, остаётся допинать его до идеального результата. (Вайбкодинг.) Но помогает, ради справедливости, не только ругаться, его впечатляет, если я включаю любые эмоции. "Ты потратил моё драгоценное человеческое время! Что это вообще такое? Дяденька, а вы точно интеллект?"
(Что-то у него делает ChatGPT, но бОльшую чать работы Клод.
Я до сих пор ленюсь потратить пару часов на поиск способа создать виртуальную симку США чтобы зарегить Клод.
Я до сих пор ленюсь потратить пару часов на поиск способа создать виртуальную симку США чтобы зарегить Клод.
Много раз советовал https://sms-activate.io и снова советую. Британский номер стоил 0.2$.
Аноны, недавно попадалось исследование (не блог-пост, а научная статья), жалко не сохранил, где они проверяли, как в современных моделях работают эти "народные" методы. Всю не читал, но как раз про "ты эксперт в области..." помню. Они гоняли это на разных бенчмарках и результат был, что эффект есть, но это несколько процентов статистически увеличивает вероятность правильного ответа. То есть просто глядя на то, что он выдает, ты эффект не заметишь, но на больших массивах есть (скромный эффект). Поскольку это бесплатно, то я буду пользоваться, когда не лениво.
Про угрозы уже давно писали, что был период, когда это работало лучше, но (примерно когда вышел GPT-4.1) это уже не всегда в плюс работает и лучше этим больше не пользоваться.
недавно попадалось исследование
мне больше интересно, исследовал ли кто, почему такие трюки вообще хоть с какими-то моделями работали. Ну, типа, если сказать "ты - эксперт", то я могу ещё предположить, что модель будет активнее использовать те связи, которые ассоциируются не только с темой вопроса, но ещё и с более достоверными "источниками" - условно, будет активнее юзать те части эмбеддинга, которые образовались при переработке статей из топовых блогов на Медиуме, а не с ноунейм сайта-однодневки.
Но угрозы-то как работали?
как раз про "ты эксперт в области..." помню. Они гоняли это на разных бенчмарках и результат был, что эффект есть, но это несколько процентов статистически увеличивает вероятность правильного ответа
И, кажется, на много процентов увеличивает вероятность маскировки галлюцинации под правильный ответ. Модель даёт более уверенный ответ и ловко уворачивается от всех проверок. Начинает цитировать источники, которые пользователь не сможет проверить (например, архивы музеев, которых нет в сети), даёт ссылки на большие монографии (и поди найти там в целой книжке, которой тоже может не быть в сети, нужный абзац) и т.п.