Sophia : "IA et Sémantique" pour le 1er Meetup mensuel du Cluster IA

Cluster IA Illustration

La reprise après les fêtes de fin d'année pour le Cluster IA. Elle se fera avec l'inauguration d'un nouvel événement : le Meeting mensuel du cluster. La première aura lieu le 23 janvier de 17 à 20 heures au Village By CA à Sophia Antipolis sur le thème "IA et Sémantique". Pour ce lancement et sur ce thème seront accueillis Fabien Aili de Docaposte (branche numérique du groupe La Poste implantée à Sophia Antipolis) et Charles Cohen, fondateur de la start-up niçoise Bodyguard. La première d'une série : à partir de février, tous les derniers jeudis de chaque mois, le Cluster proposera, sur une thématique précise, un meetup co-animé par un grand groupe et une startup.

Quelques mots sur les deux intervenants du premier Meetup. Fabien Aili, responsable du centre de compétence IA, présentera l’expertise de Docaposte en IA appliquée à l'exploitation d'informations dans de la donnée textuelle (documents texte ou image). Plus précisément, 2 axes sont suivis. Le premier tient dans le traitement d'un document image pour optimiser l'extraction d'informations : mise en œuvre de réseaux GAN pour le débruitage (denoising) et de réseaux de neurones convolutifs pour le réalignement (deskewing). Le second axe tient dans l'utilisation du NLP (Natural Langage Processing) pour obtenir une information dans du texte en prose (question/réponse, résumé de texte).

Charles Cohen, 23 ans, fondateur et président de "Bodyguard", présentera quant à lui son application spécialisée dans la modération efficace et intelligente des réseaux sociaux. “Bodyguard" s’est donné pour mission de lutter contre la haine en ligne et hors ligne via des outils technologiques et communautaires. Disponible depuis 2 ans sur Android et iPhone, l'application Bodyguard est gratuite et protège en temps réel du cyber-harcèlement et des contenus haineux adressés en ligne (SMS ou réseaux sociaux).

Elle est maintenant utilisée par plus de 45 000 personnes (ministres, sportifs, créateurs de contenus, influenceurs, journalistes, politiciens, particuliers, enfants, etc…) et cette technologie, selon les dernières observations en production, détecte 90% des contenus haineux pour seulement 2% d’erreurs.

Étiquettes
Dossiers