Fast.Ai, Kaggle: Combattere i commenti tossici

Fast.Ai, Kaggle
Nell'articolo di Michael Li (twitter) "How to Build a Multi-label NLP Classifier from Scratch" si spiega come usare fast.ai e kaggle per costruire un automa che individua i commenti tossici.

Tecnologie di questo genere sono i nuovi antivirus e antispam della comunicazione online, inquinata da bot, troll, agenti provocatori, disinformazione, bieche menzogne ecc. Questi metodi non devono affatto far pensare ad una forma di censura, o al contrario che il "libero pensiero" debba essere espresso senza condizioni online.

Poco più di un decennio fa c'era una netta distinzione tra chi informava (giornali, TV, siti istituzionali) essendo sottoposto a regole e leggi, e chi "cazzeggiava" online sui social network. Ma ora non è più così. Anche la persona più preparata può cadere nel tranello di credere a questa o quella "fonte" e contribuire a diffondere notizie false. Ed innescare "flame", caterve di commenti litigiosi che contribuiscono ancora di più al propagarsi della disinformazione.

Non è affatto facile predisporre delle contromisure, ma è questa, senz'altro, la direzione da prendere .

[via]

Add new comment

The content of this field is kept private and will not be shown publicly.

Full HTML

  • Web page addresses and email addresses turn into links automatically.
  • Lines and paragraphs break automatically.

Filtered HTML

  • Web page addresses and email addresses turn into links automatically.
  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.