Il nuovo modello R1 AI di DeepSeek consumerà molta meno energia

Secondo le ultime notizie, DeepSeek, nato in Cina e che ha conquistato il mondo, e che viene indicato come il più grande concorrente di ChatGPT, può portare il suo già buon consumo energetico a un livello molto più elevato. Secondo quanto riportato, il modello R1 AI aggiornato dell'applicazione di intelligenza artificiale ha raggiunto un livello tale da poter essere eseguito su una singola GPU. Con il lancio del DeepSeek-R1-0528-Qwen3-8B, una versione più piccola del nuovo modello R1, DeepSeek afferma che questo modello supera i modelli di dimensioni simili in alcuni test di benchmark.
Basata sul modello Qwen3-8B lanciato da Alibaba a maggio, la versione R1, più piccola e aggiornata, ha ottenuto risultati decisamente migliori rispetto al modello Gemini 2.5 Flash di Google nel test AIME 2025, che consiste in domande di matematica impegnative.
DeepSeek-R1-0528-Qwen3-8B ha ottenuto prestazioni pressoché identiche al modello Phi 4 recentemente rilasciato da Microsoft in un altro test di abilità matematica, HMMT.
I cosiddetti modelli ridotti come DeepSeek-R1-0528-Qwen3-8B sono spesso meno performanti delle loro controparti a grandezza naturale, ma riescono comunque a distinguersi per le loro prestazioni. Naturalmente, il vantaggio più importante di queste versioni è che richiedono molte meno risorse di calcolo.
Secondo la piattaforma cloud NodeShift, Qwen3-8B richiede una GPU (ad esempio, una Nvidia H100) con 40 GB - 80 GB di RAM per funzionare. Confrontandolo con il nuovo R1 full-size, notiamo che questo modello richiede circa una dozzina di GPU da 80 GB.
DeepSeek-R1-0528-Qwen3-8B è disponibile con una licenza MIT permissiva, il che significa che può essere utilizzato commercialmente senza restrizioni. Molti distributori, tra cui LM Studio, offrono questo modello tramite un'API.
milliyet