Как легко рассчитать GPU для запуска LLM локально

Константин Докучаев
Константин Докучаев
Как легко рассчитать GPU для запуска LLM локально

Сегодня запустить нейронку у себя на компьютере стало значительно проще, чем в начале их появления. Но это не отменяет требований к большому количеству GPU на устройстве для их корректной работы. Как же узнать, потянет ли твой ПК очередной ChatGPT?

Для решения этой задачи можно воспользоваться сайтом SelfHostLLM, который поможет рассчитать необходимый объём GPU и количество конкурентных запросов к LLM при развёртывании их локально. Поддерживаются Llama, Qwen, DeepSeek, Mistral и многие другие.

Для этого в левой половине сайта нужно указать ваши текущие параметры GPU, а справа выбрать параметры нужной LLM модели. После чего при нажатии на кнопку Calculate configuration вы получите информацию о том, хватит ли вам этих характеристик.



Great! Next, complete checkout for full access to All-In-One Person
Welcome back! You've successfully signed in
You've successfully subscribed to All-In-One Person
Success! Your account is fully activated, you now have access to all content
Success! Your billing info has been updated
Your billing was not updated