>>54941>>54943Lecun ha straragione ed è l'unico con un cervello in un campo in cui il virus dell'hype sembra aver contagiato tutti, openai in primis.
Abbastanza impressionante che la voce della ragione arrivi da uno di Meta.
Certo magari arriverà ChatGPT-5 ma il punto è che gli LLM non raggiungeranno mai il livello di intelligenza che molte persone chiamano AGI/ASI.
Non sono in grado di ragionare perché non hanno la comprensione del mondo che gli sta attorno: sono solo dei "banali" generatori di testo, seppur molto utili.
>>54944Scemenze.
Quando si fa girare un LLM lo si fa girare a potenza massima. Su un PC di casa vuol dire che la GPU ti schizza al 100% ed è un PC casalingo.
Un dispositivo mobile è molto meno potente di una 4080 quindi devi usare anche qui tutta la potenza a disposizione e neanche ti basta e neanche ti basterebbe se da domani gli LLM che possono girare in locale fossero il 70% più efficienti, che è già un target utopico da raggiungere.
Non mi linkare l'LLM x o y fatto girare sul furbofonino da quello o quell'altro perché sono LLM pesantemente depotenziati e fanno cagare.
Moltiplica tutto questo per il numero di esecuzioni che servirebbero per avere un'integrazione completa col sistema e capisci che è proprio una sciocchezza a livello di consumo batteria, temperature e risorse occupate.
L'approccio che verrà utilizzato dai big sarà sempre e solo quello client-server tramite API e sarà solo su feature specifiche o assistenti, che comunque si traduce in un costo a perdere per questi big.
Non ci sarà nessun cambio radicale della UX.
Post troppo lungo, premi qui per vedere tutto il testo.