- Регистрация
- 23.07.23
- Сообщения
- 48
- Онлайн
- 2д 13ч 30м
- Сделки
- 0
- Нарушения
- 0 / 1
Простенькая схемка с абузом триалки ресурса ai.io.net, которая позволит бесплатно пользоваться подборкой топовых нейросетей через API
Зачем это вообще нужно?
2. Двигаем сюда и выбираем любую необходимую Ai модель из списка (там же можно пообщаться с ней и проверить ее работу)
3. Самое время разобраться с API. Отправляемся в раздел с ключами (тыц) и выпускаем secret key для аутентификации на сервере.
Зачем это вообще нужно?
1. Переходим по ссылке и регистрируем новый аккаунтКак вариант, с помощью апишки можно поднять собственного AI-агента для Telegram-бота или юзербота и т.д. Короче, штука полезная и может иметь самое широкое применение, и всё что для этого надо — иногда менять аккаунты на сайте. Таким образом нам не нужно платить за собственный сервер (а он, на минуточку, должен быть мощным).
2. Двигаем сюда и выбираем любую необходимую Ai модель из списка (там же можно пообщаться с ней и проверить ее работу)
3. Самое время разобраться с API. Отправляемся в раздел с ключами (тыц) и выпускаем secret key для аутентификации на сервере.
import openai
client = openai.OpenAI(
api_key="$IOINTELLIGENCE_API_KEY",
base_url="https://api.intelligence.io.solutions/api/v1/",
)
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-R1-Distill-Llama-70B",
messages=[
{"role": "system", "content": "Ты SMM маркетолог и объясняешь пользователю работу всего."},
{"role": "user", "content": "Привет как развивать моего бота?"},
],
temperature=0.1,
stream=False,
max_completion_tokens=1000
)
print(response.choices[0].message.content)
client = openai.OpenAI(
api_key="$IOINTELLIGENCE_API_KEY",
base_url="https://api.intelligence.io.solutions/api/v1/",
)
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-R1-Distill-Llama-70B",
messages=[
{"role": "system", "content": "Ты SMM маркетолог и объясняешь пользователю работу всего."},
{"role": "user", "content": "Привет как развивать моего бота?"},
],
temperature=0.1,
stream=False,
max_completion_tokens=1000
)
print(response.choices[0].message.content)