Dezenas de empresas ao redor do mundo estão agora tentando replicar o sucesso do modelo de linguagem ChatGPT. No entanto, os desenvolvedores da Universidade de Stanford conseguiram fazê-lo à sua própria maneira.
Eles criaram o Alpaca 7B, que funciona como o ChatGPT, mas é baseado em um modelo de linguagem de código aberto. E custa apenas 600 dólares para treinar, enquanto o ChatGPT vale milhões de dólares.
Ele é baseado no modelo Meta LLaMA 7B, que foi treinado de uma certa maneira. É importante notar que este é o menor modelo da série LLaMA. Na versão básica, ele ficou atrás do ChatGPT na maioria das tarefas, mas após o treinamento necessário, ele até o superou.
Testes em tarefas envolvendo e-mail, mídia social e ferramentas de desempenho, o Alpaca ganhou 90 desses testes, e o GPT ganhou 89.
"Ficamos surpresos com o resultado, dado o pequeno tamanho do modelo e a modesta quantidade de dados para executar as instruções". Além de utilizarmos este conjunto de avaliações estáticas, também testamos a Alpaca interativamente e descobrimos que muitas vezes ela se comportava de forma semelhante ao GPT-3.5 em várias entradas. Reconhecemos que nossa avaliação pode ser limitada em escopo e variedade", relataram os desenvolvedores.
Dito isto, observamos que tais redes neurais podem ser executadas em PCs comuns ou mesmo em sistemas de placa única como o Raspberry Pi.
2023-03-21 07:00:44
Autor: Vitalii Babkin
URL da fonte