Decine di aziende in tutto il mondo stanno cercando di replicare il successo del modello linguistico ChatGPT. Tuttavia, gli sviluppatori dell'Università di Stanford sono riusciti a farlo a modo loro.
Hanno creato Alpaca 7B, che funziona come ChatGPT, ma si basa su un modello linguistico open-source. L'addestramento costa solo 600 dollari, mentre ChatGPT vale milioni di dollari.
Si basa sul modello Meta LaMA 7B, che è stato addestrato in un certo modo. È importante notare che si tratta del modello più piccolo della serie LLaMA. Nella versione di base, è rimasto indietro rispetto a ChatGPT nella maggior parte dei compiti, ma dopo il necessario addestramento lo ha addirittura superato.
Nei test relativi a e-mail, social media e strumenti di performance, Alpaca ha vinto 90 di questi test, mentre GPT ha vinto 89.
"Siamo rimasti sorpresi dal risultato, viste le dimensioni ridotte del modello e la modesta quantità di dati per eseguire le istruzioni. Oltre a utilizzare questa serie di valutazioni statiche, abbiamo anche testato Alpaca in modo interattivo e abbiamo scoperto che spesso si comportava in modo simile a GPT-3.5 su vari input. Riconosciamo che la nostra valutazione può essere limitata in termini di portata e varietà", hanno riferito gli sviluppatori.
Detto questo, notiamo che tali reti neurali possono essere eseguite su normali PC o persino su sistemi a scheda singola come il Raspberry Pi.
2023-03-21 07:00:44
Autore: Vitalii Babkin
URL di origine