GPT-3 spiegato da Computerphile

categorie



GPT-3: An Even Bigger Language Model, creato da Robert Miles e pubblicato su Computerphile, continua la spiegazione di questa tecnologia avanzata che promette una nuova rivoluzione informatica.

Il GPT-3 non è altro che un GPT-2 molto più grande, 176 volte più grande. Si tratta di un modello predittivo di token. Data una sequenza di caratteri, avendo "studiato a memoria" Petabyte di dati, è in grado di fornire una predizione di come continuerà questa sequenza. La vera intelligenza sta quindi nei dati che sono stati studiati. E' una tecnologia semplice ma molto efficace. Quello che emerge con il GPT-3 è che nonostante non sia stata sviluppata per compiere azioni specifiche, ma anzi è assolutamente generale, è sorprendentemente capace di riuscire a provare a svolgere varie mansioni non previste, come l'aritmetica e la poesia.

arxiv.org
A robot wrote this entire article. Are you scared yet, human?

GPT 3: Behind The Hype
GPT-Neo: The Open-Source Cure For GPT-3 FOMO
GPT-3 Use Cases in Job Marketplaces

GPT-3 is No Longer the Only Game in Town

★ The New Version of GPT-3 Is Much, Much Better

★ Il tuo prossimo romanzo preferito sarà scritto da un robot?

★ AI Assisted Writing - Un Nuovo Metodo per Scrivere

★ Frame semantico


Add new comment

The content of this field is kept private and will not be shown publicly.

Full HTML

  • Web page addresses and email addresses turn into links automatically.
  • Lines and paragraphs break automatically.

Filtered HTML

  • Web page addresses and email addresses turn into links automatically.
  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.