Sono molto critico dell'IA generativa, sin dagli albori, ma ho sempre parlato con piacere con chi la sostiene.
Più passa il tempo, più li vedo fare atti di contorsionismo per ignorare quanto sia problematica. Sospendiamo un attimo le questioni etiche e parliamo solo di quelle pratiche:
1) è impossibile assemblarsi un PC perché non si trovano RAM, hard disk e GPU (se prima erano colpiti solo i gamer, ora sono colpitx tuttx)
-> Segue
2) I prodotti consumer sono sempre più costosi e non riescono a uscire (Valve e Sony stanno rinviando le console, etc.)
3) I data center, anche ignorando i problemi ambientali, spuntano come funghi e rendono la vita un inferno a chi li ha vicini. Banalmente, consumano così tanto che aumentano a dismisura il costo della corrente, che è un bene di necessità primaria.
-> Segue
@kenobit
Io certi tipi di modelli li utilizzo per sviluppare farmaci.
Un po' di mesi fa ci siamo aggiudicati un po' di soldi ed abbiamo deciso di cominciare a montarci un nostro piccolo cluster di calcolo in modo da non dover dipendere sempre dai centri di super computazione.
Credo che ad oggi abbiamo un 150,000€ da spendere a questo proposito.
Per iniziare abbiamo fatto un ordine piccolino: un rack con un server e un paio di GPU, saranno un 25-30 mila euro o giù di lì.
Già sono passati un po' di mesi e qualche settimana fa è arrivato il rack. Di lì a poco ci ha chiamato l'azienda che dice che li hanno contattati quelli di Lenovo che dato che sono aumentati i prezzi dei componenti (tutto già pagato, s'intende) non assicuravano inviarci il server.
Nulla, al momento brancoliamo nel buio: a quanto pare nessuno ha schede grafiche. Stiamo seriamente pensando di metterci a comprare schede usate, perché i soldi li dobbiamo spendere.
@kenobit
Nel mio ambito i large language models non si usano per sviluppare molecole.
C'è chi ci ha provato ma i risultati sono abbastanza scarsi.
Certe architetture sviluppate per gli LLM però si usano in altri modelli, ad esempio AlphaFold utilizza meccanismi di attenzione.
Poi non è solo machine learning, molto del calcolo è semplicemente risoluzione di equazioni.
@rastinza Ma sbaglio o voi fareste più machine learning esperto che large language model?