Siamo a 45 ore validate di italiano ma 51 registrate! https://voice.mozilla.org/it e abbiamo un doc di idee https://docs.google.com/document/d/1mSm0ZOzAGkWtRqV8fAkFtKhag0J1swa1ZdmVo5kDci8/edit#

Abbiamo aggiunto il supporto al Wikipedia scraper per l'italiano, con la blacklist https://github.com/Common-Voice/common-voice-wiki-scraper/pull/51

Abbiamo gli script per la creazione del modello in lingua italiana https://github.com/MozillaItalia/DeepSpeech-Italian-Model

Le slide del talk su common voice sono su https://docs.google.com/presentation/d/1oFkstTY140Tp6cazOgSC6LBeTRF0labJNCl-0DogfQI/edit#slide=id.p1

La versione 71 in beta per la fine del mese avrà il supporto alla web speech api

Quest'anno avremo 5 città che parleranno di Common Voice: Brescia, Benevento, Roma, Torino (forse anche Catania).Con 6 città con tematiche mozilla in totaleHo voluto scrivere questo thread giusto per aggiornare riguardo common voice e cosa faremo al Linux Day.Sotto poi spiego i vari punti.Qualche settimana fa ho fatto una riunione con quello che fa da community manager in Mozilla per il progetto. In poche parole nei prossimi mesi ci saranno delle campagne sul progetto e volevano sapere se avevamo idee per aumentare il numero di partecipanti e come far evolvere il progetto per avere più ore.Mi hanno detto che possono aggiungere degli snippet nella about:home in italiano ad hoc ma per me non sono sufficienti.Siamo rimasti che facevo un documento in inglese di dee e cose che possiamo provare come comunità nelle prossime settimane https://docs.google.com/document/d/1mSm0ZOzAGkWtRqV8fAkFtKhag0J1swa1ZdmVo5kDci8/edit# Siete tutti invitati a dare una letta e dare i vostri commenti, se avete problemi con l'inglese fatemi sapere.Qualche settimana fa sono andato a KDE Akademy a Milano e ho conosciuto il capo redattore della rivista GNU/Linux (che trovate in edicola). Mi ha fatto una video intervista caricata su Facebook https://www.facebook.com/GNULinuxMagazineItalia/videos/1472998396158222/ Il prossimo numero (non quello attualmente in edicola) includerà nel DVD la intervista. Io ho notato che dopo il caricamento abbiamo avuto una impennata di registrazioni, ma anche pubblicare su reddit.com/r/italyinformatica lo stato del progetto ha portato più traffico.Nasce da una necessità per tutte le altre lingue, noi siamo tra le 30 disponibili ma in coda ce ne sono altre 75!Non tutti hanno una comunità che possa raccogliere le frasi e al tempo stesso sufficienti per le necessità del software di apprendimento (deepspeech) quindi è stato realizzato uno strumento che prenda frasi a caso da Wikipedia con tutta una serie di regole e noi abbiamo aggiunto il supporto all'italiano.Deepspeech rilascia solamente quello di lingua inglese ed ogni comunità deve realizzare il suo, con l'aiuto di quello francese (ed uno dei dev di deepspeech) abbiamo i nostri script per generarlo (già testato) ma siamo alla ricerca di persone che possano mettere il loro computer con scheda Nvidia e conoscenze docker a disposizione per questa generazione.Il modello serve al software per poter riconoscere l'italiano e sfrutta i dati di common voice, più dati ovvero registrazioni abbiamo più sarà bravo ad indovinare.Spero di averlo prima del Linux Day così potremo fare la demo altrimenti si userà webspeech (punto più giù).Sono le slide aggiornate e chiunque può utilizzarle, sono in italiano e spiegano common voice, quello che facciamo e deepspeech.Al momento questa api non é ancora disponibile in nightly (il dev ci sta lavorando). Di cosa si tratta? in poche parole usa un server esterno (al momento di google) che è sotto proxy così le richieste vengono anonimizzate (si non sanno chi siete, quale pagina state visitando ecc se non solo l'audio inviato) che converte il vostro parlare in testo.Un esempio lo potete provare su Google Translate tramite Chrome che aggiunge un pulsante microfono che converte quello che dite in testo che poi traduce. In Firefox come questa api sarà aggiunta il pulsante sarà disponibile, se volete una cosa similare in Firefox potete installare https://addons.mozilla.org/it/firefox/addon/voice-fill/ che aggira il problema dell'api ma aggiunge il microfono di ricerca in Google.Quando deepspeech sarà funzionante con dei dati sufficienti per le varie lingue verrà sostituito a quello di Google. Se volete provare webspeech, cercate su internet "webspeech demo" e troverete diversi esempi.Avremo la riunione venerdì dove potrò dare altri aggiornamenti e rispondere a qualunque domanda (anche qui sul forum). Venite su Telegram per maggiori informazioni, cercate @mozitabot.Se avete domande sul perché del progetto vi consiglio di vedere le slideSiamo anche sul forum Mozilla internazionale dove abbiamo la sezione in italiano per common voice https://discourse.mozilla.org/t/common-voice-per-linux-day-2019-e-stato/46062 Grazie a Saverio, Damiano, Simone, Giovanni e Alessandro per l'aiuto in tutte queste cose!