Вы не вошли.
Открыт раздел праздничных чтений Дня Чтеца 2025!
Если у вас не получается зайти на форум без ВПН, читайте по ссылке, что именно произошло
Тред для обсуждения текстовых ИИ в контексте писательства: ролевых игр, додать себе редкопейринга, написать пейзаж для главы или подсказать вотэтоповорот.
Для удобства поиска отзывов используйте тег #ии_истории.
Анон пишет:а остальные бесплатные какие-то совсем тупые.
Дипсик ты пробовал? Потому что с саи ты ничего не сделаешь, это саи.
Не, а можно ссылку? А то в шапке не вижу, а то что у меня находится на китайском? Я его когда-то неплохо знал и наверное мог бы разобраться со словарем, но хотелось бы хотя бы на английском
Саи запросто подхватывает контекст, обычно достаточно написать пару своих постов в нужном формате (реплики, реплики с описанием действий, переписка в мессенджере) и подредактировать пару его постов, а дальше он сам.
Я пробую ему редактировать сообщения, но он потом все равно вспоминает вещи которые я ему стёр и регулярно их упоминает.
Да, это похоже на positive feedback loop, проблема в том, что мне интересно варьировать диалоги с общими описаниями действий, но наверное это для бота слишком сложно.
Идешь в апишники, создаешь апишник под нужную модель, подписываешь понятно и, конечно, сохраняешь.
Анончик, поясни вот этот пункт подробнее пожалуйста. Я создавала ключ со страницы api, там модель не выбрать, только ключ обозвать. Надо создавать через страницу модели? Но она вроде кидает на ту же страницы api((
Если кому интересно, для chutes в Таверне достаточно прописать в URL
https://llm.chutes.ai/v1
После того как вставите АПИ ключ и нажмете подключится там в выпадушке ниже будут все доступные модели.
Если у кого-то не работает с chat/completions можете попробовать так на других фронтэндах.
Анончик, поясни вот этот пункт подробнее пожалуйста. Я создавала ключ со страницы api, там модель не выбрать, только ключ обозвать.
Я другой анон, но апи ключ один на все модели. Он должен быть формата cpk_ и дальше длинная колбаса букв и цифр.
Анон пишет:Вы сталкивались с тем, что описываете одно и то же событие глазами разных персов, получаете две главы об одном и том же, а нейросетка не понимает и думает, что это два разных событиях?
Чего?
Ну, показываете нейросетке готовый текст, где читатель должен сделать конкретный вывод (что N из первой главы и F из второй главы это один и тот же перс), но нейросетка этот вывод вывести не может.
Вы сталкивались с тем, что описываете одно и то же событие глазами разных персов, получаете две главы об одном и том же, а нейросетка не понимает и думает, что это два разных событиях? Это баг самого ИИ или автор недостаточно убедительно прописал?
Да, нейронки могут чего-то не понимать. Даже самые умные модели на сегодня (Gemini 2.5 Pro, Claude Sonnet 3.7) ограничены в том, что они могут осознать и какие выводы делать на лету, без плана/ризонинга. Такие вещи, как одна сцена от разных повов... ну не знаю, я никогда не пробовал такое. Но, например, Гемини любит переписывать от пова своего персонажа мои посты, но я чаще стираю это, потому что считаю избыточным.
Ну, показываете нейросетке готовый текст, где читатель должен сделать конкретный вывод (что N из первой главы и F из второй главы это один и тот же перс), но нейросетка этот вывод вывести не может.
Какой сетке, какой текст? Можно чуть побольше конкретики? Возможно, дело в твоем промпте. Ну или ты мучаешь 7Б локалку.
Отредактировано (2025-04-13 16:45:18)
Я другой анон, но апи ключ один на все модели.
Да, это.
Я тоже удивился и даже в растерянность пришел сначала.
Какой сетке, какой текст? Можно чуть побольше конкретики?
Chat.gpt 40 платка. Показываю мой личный текст. Условно, в первой главе Джульетта рассказывает про Капулетти, называя его папочкой. Во второй главе же про Капулетти рассказывает Ромео, называя синьором Капулетти. Информации достаточно, чтобы читатель понял, что жрущий пиццу папочка из первой главы = жрущий пиццу синьор Капулетти из второй главы.
Нейросетка нереально тупит и не может персов соотнести даже после того, как я сам уже ей сто раз разжевал.
Нейросетка нереально тупит и не может персов соотнести даже после того, как я сам уже ей сто раз разжевал.
Ну потому что это бездумная машина генерирующая буквы, она не 'думает', ей обязательно нужно прописать словами - это капулетти, папа джульетты, я джульетта и это мой папа. Грубо говоря, считывать между строк машине не чем
Анон пишет:Нейросетка нереально тупит и не может персов соотнести даже после того, как я сам уже ей сто раз разжевал.
Ну потому что это бездумная машина генерирующая буквы, она не 'думает', ей обязательно нужно прописать словами - это капулетти, папа джульетты, я джульетта и это мой папа. Грубо говоря, считывать между строк машине не чем
Но она же понимает другие, гораздо более сложные моменты в моих текстах! Символику, подтекст, зачем нужен мотив лопнувшей струны и вот это всё.
Но как? Объясни, пожалуйста, анончик
Я другой анон, сейчас попробовал сам, вот как у меня получилось сделать это в Рису.
Но она же понимает другие, гораздо более сложные моменты в моих текстах! Символику, подтекст, зачем нужен мотив лопнувшей струны и вот это всё.
Это иллюзия понимания, симулякр. Она просто натренирована на каких-то текстах, возможно литературоведческих, и слепливает что-то достаточно правдоподобное.
Ну потому что это бездумная машина генерирующая буквы, она не 'думает', ей обязательно нужно прописать словами - это капулетти, папа джульетты, я джульетта и это мой папа. Грубо говоря, считывать между строк машине не чем
Анончик, почитай последние исследования, например, Антропиков, все не так просто. И нет, тому же Клоду не надо все разжевывать, он понимает и схватывает много чего.
Chat.gpt 40 платка..
ChatGPT 4o не самая умная модель. Есть шанс, что для того чтобы сделать такой сложный вывод ЛЛМ обязательно нужен будет ризонинг. Либо у тебя слишком большой объем текста и как всегда виновато то, что сетки плохо держат большой контекст.
ChatGPT 4o
А почему в рейтингах, если гуглить "самая умная нейросеть", она первая?
А почему в рейтингах, если гуглить "самая умная нейросеть", она первая?
Анон, разные модели под разное заточены. ChatGPT может и дофига умная, но для РП она так себе.
Отредактировано (2025-04-13 18:06:16)
Анончик, почитай последние исследования, например, Антропиков, все не так просто.
Ок, спасибо, я посмотрю. Я просто иногда проверяю как чат жпт работает с разными нестандартными математическими задачами, и по моим ощущениям он по сравнению с тройкой только отупел. Если решения аналогичной задачи нет в интернете, он часто начинает плести абсолютную чушь. Отдельная тема, что он плохо ориентируется в 3д пространстве, что становится заметно если спросить у него что-нибудь про орг химию
ChatGPT может и дофига умная, но для РП она так себе.
А для творческих литературных задач какая лучшая?
Отредактировано (2025-04-13 18:07:53)
А почему в рейтингах, если гуглить "самая умная нейросеть", она первая?
Что за рейтинги такие? Посмотри поулярные бенчи хотя бы. Я ориентируюсь на эти три, но всегда пробую новые сетки и стараюсь делать выводы самостоятельно.
https://livebench.ai/
https://simple-bench.com/
https://eqbench.com/
А почему в рейтингах, если гуглить "самая умная нейросеть", она первая?
Наверное, потому что опенаи самая популярная ии-компания. Совершенно никак не связано, да.
А для творческих литературных задач какая лучшая?
Джемини, Клод и Дипсик. Я не знаю как там с рейтингами, но эти три с задачей, похожей на описанную выше по тредику, у меня справлялись.
ChatGPT может и дофига умная, но для РП она так себе.
Да не особо она умная...
Я просто иногда проверяю как чат жпт работает с разными нестандартными математическими задачами, и по моим ощущениям он по сравнению с тройкой только отупел. Если решения аналогичной задачи нет в интернете, он часто начинает плести абсолютную чушь. Отдельная тема, что он плохо ориентируется в 3д пространстве, что становится заметно если спросить у него что-нибудь про орг химию
Опять таки, чатГПТ не лучший показатель, тем более если ты там не пользуешься ризонинг вариантом (который o1-o3). С математикой Попробуй Гемини 2.5 Про, она вроде сейчас лучшая в ней. Ну и математика так-то ну не самая лучшая штука для теста чистых моделей без ризонинга и деланья выводов.
Исследования о том, как работают ЛЛМ, и как сложен на самом деле процесс генерации токена, как используются фичи, удивительно интересны на самом деле. Например, есть недавняя статья, в которой на основе маленькой модельки показывается, что модель планирует заранее на несколько токенов вперед (там было на примере подбора рифмы). Это поразительное открытие во многом.
Джемини, Клод и Дипсик. Я не знаю как там с рейтингами, но эти три с задачей, похожей на описанную выше по тредику, у меня справлялись.
Поддержу. ДипСик самый креативный, Клод очень умный, и у него лучшие диалоги, ИМХО. Джемини что-то среднее между ними.
Не, а можно ссылку? А то в шапке не вижу, а то что у меня находится на китайском?
Анончик, тут смотри https://openrouter.ai/
Выбирай бесплатную модель (DeepSeek V3 0324 последняя, DeepSeek: R1 с ризонингом), можешь прямо на сайте початить. Но там ограничение на бесплатные генерации (50 штук) недавно ввели.
На https://chutes.ai/ вроде совсем бесплатно, но я там не пробовала.
Отредактировано (2025-04-13 18:20:20)
Например, есть недавняя статья, в которой на основе маленькой модельки показывается, что модель планирует заранее на несколько токенов вперед (там было на примере подбора рифмы). Это поразительное открытие во многом.
Мне больше всего было бы интересно обьединить ЛЛМ с органоидами мозга, тем более что их уже научились поддерживать жизнеспособными по полгода, емнип, и они недавно стали доступны для коммерческого использования.