Shailesh Prakash de Google News a admis jeudi que les modèles d'IA actuels "ne sont pas parfaits" mais "progressent rapidement", après la suspension d'un outil pour des inexactitudes historiques.
Shailesh Prakash, directeur général de Google News, a reconnu jeudi que les modèles actuels d'intelligence artificielle "ne sont pas parfaits du tout" mais "progressent rapidement", quelques semaines après la suspension d'un outil par le groupe américain pour cause d'inexactitudes historiques.
Pour situer où nous en sommes avec l'IA,
"utilisons une analogie avec le football"
:
"une partie dure 90 minutes, je dirais que nous sommes dans les 5 premières minutes"
, a-t-il lancé lors d'une intervention au festival international de journalisme de Pérouse en Italie.
"Donc, c'est très tôt. Ces modèles progressent rapidement. Ils ne sont pas parfaits du tout"
, a ajouté M. Prakash, le directeur général de Google News (service en ligne gratuit de Google qui présente de façon automatisée des articles de presse présents sur internet).
En février, peu après avoir lancé Gemini, sa nouvelle interface d'IA générative, Google avait suspendu la création d'images de personnes à la suite de nombreux signalements d'utilisateurs. Une requête sur un soldat allemand de 1943 avait par exemple donné lieu à des images de militaires asiatiques ou à la peau noire.
"C'est totalement inacceptable et nous nous sommes trompés",
avait réagi le PDG de Google, Sundar Pichai. L'année dernière, Google a par ailleurs indiqué mettre au point un nouvel outil d'intelligence artificielle censé aider les journalistes à écrire leurs articles, en partenariat avec plusieurs grands noms de la presse.
et
, a assuré M. Prakash jeudi.
"Ces outils sont des outils avec l'humain dans la boucle"
, a-t-il souligné, face aux craintes exprimées parfois sur le possible remplacement des journalistes par des machines. Le nouveaux outils vont permettre d'être
"plus créatifs, plus ambitieux"
, selon lui.
Le responsable de Google a expliqué travailler notamment à un
: il sera possible de consulter les sources de l'IA pour vérifier que la machine n'a pas eu d'
, inventant des éléments.
Ainsi,
"à la fin, la responsabilité vous incombe"
, a-t-il insisté.
#IA
#médias
#société
#internet
#technologies