Travely.biz

Le ultime notizie, commenti e funzionalità da The Futura

Come l’intelligenza artificiale risolve alcuni dei problemi più difficili di Internet

Scritto da Ram Ramanathan, direttore del team di gestione dei prodotti di intelligenza artificiale di Facebook

Lo sapevate più del 60% Chi nel mondo ora ha accesso a Internet?

Poiché Internet si è evoluto per incorporare più reti e dispositivi, alle persone di tutto il mondo sono state offerte più opportunità per rimanere in contatto e più posti per trovare informazioni. Ma alcuni dei problemi che hanno afflitto l’umanità nel corso della sua storia, come l’incitamento all’odio e la deliberata disinformazione, sono emersi anche su Internet.

Fortunatamente, sono stati fatti grandi passi avanti nel campo dell’intelligenza artificiale che possono aiutare a risolvere queste sfide. In qualità di direttore del team di gestione dei prodotti AI di Facebook, sono stato in grado di monitorare l’evoluzione degli ultimi progressi compiuti per mantenere l’integrità delle piattaforme online, proteggere il pubblico da contenuti dannosi e fuorvianti e mantenere l’integrità dei marchi degli inserzionisti.

Scoprire contenuti problematici su larga scala è un compito molto impegnativo, ma con l’intelligenza artificiale come strumento, diventa più facile farlo in modo rapido ed efficiente.

Rileva e rimuove l’incitamento all’odio

Per migliorare la sicurezza degli utenti e mantenere i contenuti dannosi fuori dalle nostre piattaforme, abbiamo sviluppato linee guida che regolano il comportamento accettabile in entrambi Sito di social network Facebook E il Instagram. Ora siamo in grado di allenarci complessi rete di intelligenza artificiale In modo che in una frazione di secondo possano scansionare nuovi post per valutare se sembrano violare queste linee guida.

Mentre le parolacce e l’uso di simboli di odio sono comuni, ci sono molti casi più complessi di incitamento all’odio. Tali detti sono spesso mascherati da sarcasmo e slang, o mascherati da immagini apparentemente innocenti che possono essere percepite in modo diverso nelle diverse culture. Quando coloro che si esprimono in modo più sottile e sonoro lo eseguono in un contesto più ampio, presenta anche maggiori sfide tecniche per rilevare correttamente questo come espressioni di odio. Ecco perché è così importante che negli ultimi anni ci siano stati progressi significativi nella capacità dell’intelligenza artificiale di comprendere più profondamente questi contenuti.

READ  Il freddo fa bene alla batteria

Come l’ultima parte della primavera Rapporto sull’implementazione degli standard comunitari Si scopre che l’intelligenza artificiale ha rilevato il 96,8% dei 25,2 milioni di incitamenti all’odio che abbiamo rimosso durante il primo trimestre del 2021. Nello stesso periodo, abbiamo anche ridotto l’incidenza dell’incitamento all’odio a solo 6 su 10.000 visualizzazioni di contenuti su Facebook. Questo numero target è di particolare interesse per gli inserzionisti che desiderano comprendere i potenziali rischi di un annuncio visualizzato insieme a contenuti che violano i nostri standard.

L’intelligenza artificiale ci aiuta ad ampliare l’ambito della revisione dei contenuti automatizzando determinate decisioni. In questo modo, il sistema aiuta a dare la priorità ai casi troppo complessi per essere rivisti e valutati dalle persone. Allo stesso tempo, il processo protegge i nostri dipendenti dal dover vedere con i propri occhi alcuni dei contenuti più problematici.

Identifica informazioni errate

Quando i nostri modelli prevedono la probabilità che una pubblicazione contenga informazioni fuorvianti o imprecise, viene inoltrata a verificatori di fatti esterni per la revisione. Se ritengono che il contenuto non sia corretto, metteremo un flag di avviso sul post e lo contestualizziamo. Questi strumenti si sono dimostrati molto efficaci. La nostra indagine interna ha mostrato che quando vengono presentati con adesivi che avvertono che il contenuto è considerato falso o errato, non vedono il contenuto il 95% delle volte.

Ogni post con disinformazione può essere copiato e condiviso migliaia di volte dagli utenti. L’intelligenza artificiale viene ora utilizzata per rilevare questi duplicati quasi accurati ed etichettare ogni copia con un tag, facendo la differenza nella lotta alla disinformazione.

Quando sorgono nuove sfide, sfruttiamo costantemente l’intelligenza artificiale per aiutare a far rispettare le nostre politiche. Ad esempio, a livello globale, dall’inizio della pandemia, abbiamo rimosso più di 16 milioni di post su Facebook e Instagram contenenti informazioni su COVID-19 o vaccini che gli esperti sanitari hanno rifiutato.

READ  Pertanto, i prezzi di molte auto usate sono aumentati nell'ultimo anno

Pronti ad affrontare le più grandi sfide di domani

I “meme” odiosi e i “deep fake” – media in cui un video o un’immagine sono stati manipolati digitalmente per farlo sembrare diverso – sono due delle maggiori sfide che stiamo attualmente addestrando ai modelli di intelligenza artificiale per combattere.

Creare meme implica mettere insieme testo e immagini in un modo spesso sottile o ironico. Il contenuto di un’immagine o di un testo in un meme potrebbe non essere offensivo se visualizzato separatamente, ma in alcuni casi il risultato è dannoso se combinato. I nostri sistemi stanno migliorando nel valutare immagini e testo nel contesto e stanno migliorando nella comprensione dei contesti e nella rimozione dei meme odiosi.

Nel complesso, l’intero ambiente di competenze intorno all’IA supporta la condivisione proattiva delle conoscenze e l’ambiente collabora per creare esperienze Internet migliori. Le nostre ultime promozioni Mimi hate challenge E il falso profondo Sfida di rilevamento Fornire modelli di divulgazione nuovi e aperti che possano avvantaggiare tutti. Assegnando risorse a una scienza aperta e ripetibile, i ricercatori di intelligenza artificiale si tengono reciprocamente conto, rendendo la nuova tecnologia più prontamente disponibile.

L’intelligenza artificiale offre esperienze online migliori

Il mio team mira a creare soluzioni accessibili che rendano possibile gestire i contenuti dannosi in modo equilibrato. Intendiamo che le nostre piattaforme siano aperte alle persone per esprimere ciò che hanno in mente, ma senza danneggiare gli altri. E vogliamo che la comunità aziendale sia in grado di partecipare alla conversazione senza essere associata a contenuti dannosi o fuorvianti.

Il nostro obiettivo più importante è fornire la piattaforma di comunicazione più sicura. L’intelligenza artificiale non è l’unica soluzione ai contenuti problematici, ma è uno dei tanti strumenti che ci consentono di scalare e adattarci in modo più rapido ed efficiente di quanto sarebbe possibile con la sola forza lavoro umana. Sappiamo che c’è ancora molto lavoro da fare e siamo profondamente impegnati a impegnarci affinché ciò accada.

READ  Ascolta le voci opposte delle Dolomiti! | steigan.n

Se desideri saperne di più sui nostri strumenti open source e sulla ricerca che svolgiamo, ti invitiamo a farlo Dai un’occhiata più da vicino a queste informazioni online!