# Modelo de linguagem de código aberto supera GPT-4 Turbo em problemas de codificação pela primeira vez
> O Coder V2, desenvolvido pela chinesa DeepSeek, foi treinado com mais de 300 linguagens de programação, alcançando pontuações de 90,2 e 76,2 nos benchmarks HumanEval e MBPP+
hashtags: #InteligênciaArtificial #CódigoAberto #CoderV2 #DeepSeek #HumanEval #MBPP_plus