Brendan Bycroft ha creato una speciale visualizzazione per spiegare i meccanismi di funzionamento dei modelli linguistici alla base delle funzionalità "AI": LLM Visualization
Non è niente male. Quando non riesce a trovare un riscontro preciso, cerca di dare comunque un riscontro più simile possibile a quello che si stava cercando.
Quasi sempre qui ci si occupa di sogni diventati realtà. Ma a volte prendiamo una deviazione e facciamo un ripasso sullo stato degli incubi.
Farrell McGuire è molto attratto dalle aberrazioni allucinanti che i modelli linguistici multimodali sono in grado di creare. Gli sviluppatori, saccheggiando qua e la, cercano di raggiungere uno stato dell'arte decente, ma ad ogni istante, non avendo il modello alcuna coscienza e comprensione di quello che succede ed è raffigurato, un fotogramma apparentemente corretto può innescare una reazione a catena e trasformare il filmato in un horror.
Ed è questa caratteristica che le persone dovrebbero tenere in maggiore considerazione quando pensano ai vari "sistemi di AI generativa" che dovrebbero aiutare in futuro. Il fatto che in ogni momento può crollare tutto, magari molto raramente, ma il pericolo c'è sempre. E' come affidare una qualsiasi funzione ad chi non si sa essere uno schizofrenico latente.
Jennifer Golbeck è professoressa di informatica all'UMD e si occupa di studi sui social media e l'intelligenza artificiale.
Nel video Is AI Progress Stuck? | Jennifer Golbeck | TED ci spiega in poche parole, chiare e semplici, com'è davvero la situazione attuale del campo dell'intelligenza artificiale. E non è l'unica a pensarla così.
Vedremo presto, nell'immediato futuro, se le sue opinioni reggeranno al test del tempo oppure aveva ragione Sam Altman. Nel frattempo l'industria sembra prigioniera della peggiore bolla speculativa IT di tutti i tempi.
QwQ è un modello linguistico progettato e realizzato per provare a costruire un ragionamento. Un paio di domande per testarlo hanno avuto esito decisamente diverso. Quando ho trasformato la mia data di nascita in un numero a 8 cifre nel formato YYYYMMDD e gli ho chiesto i suoi fattori primi QwQ è partito in uno sproloquio degno di uno studente delle medie solerte e chi abbia bevuto un po' troppo caffè. Non ha trovato il risultato dopo aver riempito qualche lavagna di calcoli, verifiche e passi indietro.
Un quesito su base statistica invece più complesso ha prodotto una soluzione corretta, individuando fin da subito le formule che si addicevano al caso e applicandole alla perfezione.
L'obiettivo principale di llama.cpp è quello di consentire l'uso di LLM (ad esempio quelli di huggingface) con una configurazione minima (anche senza GPU) e prestazioni all'avanguardia su un'ampia varietà di hardware, sia a livello locale che in cloud.