
Как аналитик, я заметил, что многие чат-боты сегодня, такие как ChatGPT и Gemini, используют модели вывода для ответов на вопросы, обученные на огромных объемах данных. Они отлично справляются с общими запросами, но сталкиваются с трудностями, когда дело доходит до сложного кодирования и математических задач, хотя это постепенно улучшается. Недавно OpenAI представила свою модель рассуждений o1, которая использует многоэтапный процесс для получения ответа.
Однако DeepSeek нарушает норму с помощью своей собственной инновации — DeepSeek R1. Эта модель рассуждений построена на большой языковой модели V3 и, как утверждается, разработана по значительно более низкой цене по сравнению с тем, что тратят организации США. Для сравнения, DeepSeek заявляет, что потратила менее 6 миллионов долларов на обучение своей модели, тогда как американские бренды обычно вкладывают сотни миллионов в обучение каждой модели и миллиарды в инфраструктуру.
DeepSeek R1 отличается тем, что для ее использования не требуется никакой оплаты — факт, вызвавший настоящий переполох в отрасли. Чтобы обеспечить некоторый контекст, OpenAI взимает 200 долларов в месяц за ChatGPT Pro, который работает по модели o1. С DeepSeek R1 пользователи могут получить доступ к чему-то сопоставимому — бесплатно. Это противоречит этике Кремниевой долины, где обычно основное внимание уделяется монетизации достойного продукта.