Descrizione del progetto
Rilevamento di comportamenti indesiderati su internet grazie all’apprendimento automatico
L’adescamento di minorenni in rete, la tossicità, le molestie e il bullismo sulle piattaforme online rappresentano una minaccia significativa per i giovani. I ricercatori dell’Università norvegese di scienza e tecnologia (NTNU) e dell’azienda spin-off AIBA hanno sviluppato modelli di apprendimento automatico che utilizzano le dinamiche dei testi e dei tasti per individuare precocemente i comportamenti dannosi e ridurre i danni e la tossicità sulle loro piattaforme. Il progetto Aiba, finanziato dall’UE, intende fornire soluzioni digitali sicure per bambini e adolescenti. Incorpora il rilevamento in tempo reale di profili falsi nei giochi e nei social media. Questo servizio di moderazione valuta in tempo reale tutte le conversazioni in corso su piattaforme di gioco e social media, individuando le discussioni di adescamento dei minorenni in meno di 20 messaggi. Questo non solo semplifica la moderazione, ma aiuta anche i clienti a prevenire i comportamenti dannosi, risparmiando in definitiva un numero considerevole di ore di lavoro.
Obiettivo
Aiba creates safe digital lives for kids and teenagers. We do real-time detection of fake profiles and unwanted behavior, such as cyber grooming, toxicity, harassment and bullying in games and social media. Our machine learning powered moderation service will make moderation easier for our customers. We risk score all ongoing conversations real-time on gaming and social media platforms, and help our customers to prevent unwanted behavior before it makes any harm. We help them stop cyber grooming early and our initial results show we can detect grooming coversations in less than 20 messages .Our service is powering our customers with increased community health and more efficient moderation through proactive and continuous risk scoring. They can save huge amounts of human hours by using our solution. Our unique SaaS multimodal approach, combined with machine learning makes for a new era in chatroom moderation.
With a novel approach based on award-winning research, researchers and data scientists at Aiba and NTNU, have developed and trained machine learning models with text and keystroke dynamics to detect cyber grooming and other unwanted behavior early so they can stop conversations to minimize harm and toxicity on their platforms. The solution has been trained and tested on short texts typically sent in a chat. From this minimal amount of information, the system has accurately been able to profile the chatter and determine both their age group and gender. The solution has been further developed to perform a continuous real-time analysis of the text messages, to mark suspicious conversations. To do this, natural language processing features (turning text into numerical feature vectors) are used, in combination with machine learning techniques.
Parole chiave
Programma(i)
- HORIZON.3.2 - European innovation ecosystems Main Programme
Argomento(i)
Meccanismo di finanziamento
HORIZON-CSA - HORIZON Coordination and Support ActionsCoordinatore
2815 Gjovik
Norvegia
L’organizzazione si è definita una PMI (piccola e media impresa) al momento della firma dell’accordo di sovvenzione.