Close Menu
MokoDAO – Seu portal para o mundo das criptomoedas e web3MokoDAO – Seu portal para o mundo das criptomoedas e web3
  • Home
  • Crypto
  • Bitcoin
  • Altcoins
  • NFT
  • Games
  • Airdrop
  • Guias
  • Editorial

Subscribe to Updates

Assine nossa newsletter e nunca perca nossas últimas notícias

Assine minha Newsletter para Novas Postagens e dicas Vamos ficar atualizados!

What's Hot

Crypto se recupera após o Fed Cut – o que o gráfico diz sobre Bitcoin, Cardano, nas proximidades

19/09/2025

US $ 120.000 Bitcoin Retest está “à vista”: Bitbank

19/09/2025

As bombas da BOMB.FUN caem como viagens de mercado de moedas de meme

19/09/2025
Facebook X (Twitter) Instagram
  • Anuncie Conosco
  • Sobre Nós
  • Política de Privacidade
  • DMCA
  • Termos e Condições
MokoDAO – Seu portal para o mundo das criptomoedas e web3MokoDAO – Seu portal para o mundo das criptomoedas e web3
  • Home
  • Crypto
  • Bitcoin
  • Altcoins
  • NFT
  • Games
  • Airdrop
  • Guias
  • Editorial
MokoDAO – Seu portal para o mundo das criptomoedas e web3MokoDAO – Seu portal para o mundo das criptomoedas e web3
Home » O código aberto da China AI Deepsek R1 é comparável ao O1 do OpenAI a um custo 98% menor.
Bitcoin

O código aberto da China AI Deepsek R1 é comparável ao O1 do OpenAI a um custo 98% menor.

Equipe MKDBy Equipe MKD26/01/2025Nenhum comentário9 Mins Read
Share
Facebook Twitter LinkedIn Pinterest Email


Os pesquisadores chineses de IA conseguiram o que muitas pessoas pensavam que eram antes. É um modelo de código aberto gratuito equivalente ou além do estado do OpenAI -O -OFE -ATROT INFERÊNCIA SISTEMA. Esta é a maneira de tornar isso mais atenção. Assim como os humanos aprendem, foi uma maneira de deixar a AI aprender através de tentativas e erros.

“Deepseek-r1-zero, um modelo treinado por um aprendizado de reforço em larga escala (RL) sem um professor com um professor no estágio anterior, tem uma capacidade de inferência surpreendente”.

“Aprendizagem aprimorada” é um método para dar uma recompensa ao tomar uma boa decisão sem saber qual modelo é e punir uma má decisão. Após uma série de decisões, você aprenderá a seguir o caminho aprimorado pelo resultado.

Primeiro, durante a fase financiada com um professor, o grupo humano fornecerá ao modelo a saída necessária ao modelo e fornecerá ao modelo um contexto para saber o que é bom e o que é bom. Isso leva ao aprendizado reforçado, a próxima fase em que os modelos fornecem uma variedade de resultados e os seres humanos classificam o melhor. Esse processo é repetido muitas vezes até que o modelo reconheça como fornecer consistentemente resultados satisfatórios.

Imagem: Shik profundo

Deepseek R1 é uma direção no desenvolvimento da IA, porque os humanos desempenham um papel mínimo no treinamento. Ao contrário de outros modelos treinados com uma enorme quantidade de dados do professor, o Deepseek R1 aprende principalmente por meio de aprendizado de reforço mecânico. Em outras palavras, você entenderá as coisas essencialmente conduzindo experimentos e obtendo feedback sobre o que funcionará.

“Através da RL, Deepseek-R1-Zero percebe naturalmente muitos movimentos de inferência poderosos e interessantes”, disse ele em seu artigo. Esse modelo também desenvolveu funções avançadas, como auto -verificação e reflexão, mesmo que não seja explicitamente programado.

À medida que o modelo passava pelo processo de treinamento, ele naturalmente aprendeu a atribuir mais “tempo de pensamento” devido a questões complexas, desenvolvendo seus próprios erros. Os pesquisadores enfatizaram o seguinte: “Oh, naquele momento” Aqui, o modelo aprendeu a avaliar a primeira abordagem do problema. Isso não foi explicitamente programado.

O valor de desempenho é impressionante. Nos benchmarks de matemática do AIME 2024, o Deepseek R1 alcançou uma taxa de sucesso de 79,8% e excedeu o modelo de raciocínio de O1 da O1. O teste de codificação padronizado demonstrou o desempenho do “nível de especialista”, alcançou a avaliação ELO de 2.029 nas forças de código, excedendo 96,3% dos concorrentes humanos.

Imagem: Shik profundo

No entanto, é o custo ou o custo do Deepseek R1. Este modelo executa uma consulta por apenas US $ 0,14 por milhão de tokens em comparação com os US $ 7,50 da Openai, o que é 98% mais barato. Ao contrário de um modelo proprietário, o código e o método de treinamento do Deepseek R1 são de código aberto completamente sob a licença do MIT. Em outras palavras, qualquer pessoa pode obter, usar e alterar o modelo sem restrições.

Imagem: Shik profundo

Reação do líder da IA

A liberação do Deepseek R1 causa uma avalanche dos líderes da indústria da IA ​​e muitos enfatizam a importância de um modelo de código aberto completamente, comparável aos seus próprios líderes na função de inferência.

O Dr. Jim Fan, um dos principais pesquisadores da NVIDIA, deu o comentário mais nítido, diretamente semelhante à missão original do Openai. “Estamos vivendo na linha do tempo em que outras empresas que não os Estados Unidos vivem na missão original do Openai, ou seja, uma pesquisa de fronteira verdadeiramente aberta que dá a todas as pessoas”, disse os fãs.

Vivemos na linha do tempo em que as empresas não que não vivem na missão original do Openai, ou seja, pesquisas verdadeiramente abertas e de fronteira. Não faz sentido. O resultado mais interessante é mais provável.

Deepseek-R1 não apenas faz muitos modelos de código aberto … pic.twitter.com/m7eznemcoy

– Jim Fan (@drjimfan) 20 de janeiro de 2025

O ventilador revela a importância da abordagem de aprendizado aprimorada do DeepSeek, “Provavelmente, esse é o primeiro projeto (software de código aberto), que mostra o crescimento sustentável significativo dos volantes. curva. “Em contraste com a apresentação do Hype geral na indústria.

Awni Hannun, pesquisadora da Apple, disse que a versão quantizada do modelo pode ser executada localmente no Mac.

O Deepseek R1 671B é executado em dois M2 Ultra e é mais rápido que a velocidade de leitura.

Em casa, aborde a O1, um código aberto sobre hardware de consumo.

Quantização de 3 bits (~ 4 bpw) usando mlx.distribued e mlx-lm pic.twitter.com/rnkyxwzg3c

—Ani hanun (@ownihannun) 20 de janeiro de 2025

Anteriormente, os dispositivos Apple foram considerados vulneráveis ​​à IA porque não são compatíveis com o software CUDA da NVIDIA, mas a situação parece estar mudando. Por exemplo, Alex Chiema, pesquisador de IA, conseguiu executar um modelo completo executando simultaneamente oito Apple Mac Mini. Isso ainda é mais barato que o servidor necessário para executar o modelo de IA mais poderoso atualmente disponível.

No entanto, o usuário pode executar a versão leve do Deepseek R1 no Mac, com um bom nível de precisão e eficiência.

No entanto, a reação mais interessante foi paga para o quão perto a indústria de código aberto está se aproximando de seu próprio modelo e os efeitos potenciais que podem ser pagos ao OpenAI como líder no campo do modelo de IA de inferência.

O fundador da estabilidade da IA, Emado Mostak, adotou uma atitude provocativa e sugeriu que o lançamento pressionasse mais concorrentes financeiros. Ganhar Deep Seek? “

Você pode imaginar se tornar um laboratório “Frontier” que não pode lançar o modelo mais recente porque você não pode vencer o Shik Deep, mesmo que tenha levantado US $ 1 bilhão?

Se for o alvo, o SOTA pode ser uma vadia

– Emad (@emostaque) 20 de janeiro de 2025

De acordo com a mesma lógica, o empresário de tecnologia Arno Bartrand disse que a aparência de um modelo de código aberto competitivo pode ser potencialmente prejudicial ao OpenAI. Porque esse modelo não é atraente para usuários de energia que gastam dinheiro. Custa muito dinheiro para cada tarefa.

“Em essência, é como vender um telefone celular equivalente ao iPhone, mas vendê -lo por US $ 30 em vez de US $ 1.000. É tão dramático”.

Talvez a maioria das pessoas não entenda o quão más notícias na China são para o Openai.

Eles são comparáveis ​​ao mais recente modelo O1 da OpenAI com vários benchmarks e, mais do que isso, o preço é de apenas 3%.

É como se alguém fosse lançado … pic.twitter.com/agss5wowfff

– Arnault Bertrand (@Rnaudbertrand) 21 de janeiro de 2025

Arvind Srinivas, CEO da Perplexity AI, explicou esse lançamento da perspectiva do mercado. “Deepseek quase duplicou o O1 Mini e o converte em um código aberto”. “

É um pouco selvagem ver que a inferência é tão rapidamente convertida. É necessário esperar que os modelos de nível O3 sejam abertos no ano até o final do ano e talvez este ano. pic.twitter.com/oyixks4udm

– Aravind Sulnibas (@aravsrinivas) 20 de janeiro de 2025

Srinivas disse que sua equipe trabalhará na introdução dos recursos de raciocínio do DeepSeek R1 no Perplexity Pro no futuro.

Prática rápida

A partir desse tipo de pergunta bem conhecida desse tipo de benchmark: “Qual é a palavra Strawberry?”, Fiz alguns testes simples para comparar esse modelo com o OpenAi O1.

Geralmente, os modelos não lidam com palavras, mas para dar uma resposta correta para lidar com tokens, que são expressões digitais de conceitos.

O GPT-4O falhou, mas o OpenAi O1 foi bem-sucedido. O mesmo aconteceu com o Deepseek R1.

No entanto, o O1 teve um processo de raciocínio muito simples, enquanto o Deepseek aplicou uma grande quantidade de saída de raciocínio. Curiosamente, a resposta de Deepseek foi mais humana. Durante o processo de raciocínio, o modelo parecia estar falando apenas usando palavras e palavras de gírias que não são comuns em máquinas, mas mais amplamente utilizadas em humanos.

Por exemplo, o modelo disse a si mesmo: “Ok, vamos pensar sobre isso”, considerando o número de rúpias. Durante a discussão, ele usou “hmm” ou disse: “Espere, não”. Espere e desmonte. “

O modelo acabou chegando ao resultado certo, mas gastou muito tempo para inferência e tokens. Esta é uma desvantagem nas condições gerais de configuração de preços. No entanto, considerando a situação atual, ela pode gerar muito mais tokens do que o OpenAI O1 e ainda manter a competitividade.

Outro teste para verificar a capacidade do modelo foi jogar “espião” e identificar o culpado em um romance curto. Selecione uma amostra no conjunto de dados do GitHub Big Bench. (O texto completo pode ser visto aqui. Isso inclui uma viagem escolar a uma área remota onde a queda de neve está incluída. Os alunos e professores enfrentam uma série de estranhos desaparecimentos, e o modelo deve encontrar quem é o perseguidor. Não).

Eu pensei que os dois modelos por mais de um minuto. No entanto, Chatgpt caiu antes de resolver o mistério.

No entanto, Deepseek deu a resposta correta depois de “pensar” por 106 segundos. O processo de pensamento estava correto e o modelo estava incorreto (mas ainda uma conclusão lógica).

A pequena versão da acessibilidade deu uma boa impressão aos pesquisadores. A propósito, como o modelo 1,5b é muito pequeno, ele pode ser executado teoricamente com um smartphone poderoso. De acordo com o Vaibhav Srivastav, o cientista de dados do rosto abraçando, conseguimos enfrentar o GPT-4o e o claude de 3,5 sonetos em uma versão de quantização R1 tão menor.

“Deepseek-R1-Distill-Qwen-1.5b superou o GPT-4O e o Claude-3,5 no benchmark matemático, alcançados 28,9% na AIME e 83,9% em matemática”.

O que 1,5 bilhão fez? pic.twitter.com/pk6fojnma2

– Vibab (VB) slivastaf (@reach_vb) 20 de janeiro de 2025

Apenas uma semana atrás, Skynove, a Universidade da Califórnia, Berkeley, lançou a Sky T1, um modelo de adivinhação que pode competir com a prévia do Openai O1.

Se você estiver interessado em executar o modelo localmente, pode baixá -lo no GitHub ou Huggingf Face. Os usuários podem baixar e executá -los, excluir a censura e multar -os para se adaptar a vários campos especializados.

Ou, se você deseja experimentar o modelo on -line, acesse o bate -papo de abraço ou o Deepseek Web Portal. Esta é uma excelente alternativa ao chatgpt. Em particular, é um código aberto gratuito e é a única interface AI Chat Bot com um modelo construído para inferência além do chatgpt.

Andrew Hayward Editing

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA que Gen, um modelo de IA gerado, fala.





Source link

Equipe MKD
  • Website

Related Posts

Crypto se recupera após o Fed Cut – o que o gráfico diz sobre Bitcoin, Cardano, nas proximidades

19/09/2025

US $ 120.000 Bitcoin Retest está “à vista”: Bitbank

19/09/2025

As bombas da BOMB.FUN caem como viagens de mercado de moedas de meme

19/09/2025

Mininhas da manhã: as metas das máscaras incluirão tokens e szns Airdrop

19/09/2025
Add A Comment
Leave A Reply Cancel Reply

Inscreva-se para receber as notícias!

Assine nossa newsletter e nunca perca nossas últimas notícias.

Colunistas

Crypto se recupera após o Fed Cut – o que o gráfico diz sobre Bitcoin, Cardano, nas proximidades

19/09/2025

US $ 120.000 Bitcoin Retest está “à vista”: Bitbank

19/09/2025

As bombas da BOMB.FUN caem como viagens de mercado de moedas de meme

19/09/2025

Mininhas da manhã: as metas das máscaras incluirão tokens e szns Airdrop

19/09/2025

Recent Comments

  1. Uguettolitsz em Os robôs de Badmad fecharam o beta começa em fevereiro – veja como entrar!
MokoDAO – Seu portal para o mundo das criptomoedas e web3
Discord X (Twitter) Telegram
  • Anuncie Conosco
  • Sobre Nós
  • Política de Privacidade
  • DMCA
  • Termos e Condições
© 2025 mokodao. Designed by mokodao.

Type above and press Enter to search. Press Esc to cancel.