Une semaine après qu'un article paru dans The Guardian ait révélé que des êtres humains participant au programme de "classement" de Siri de Apple entendaient des activités privées et illégales, Apple a suspendu le programme afin de mener un examen. Nous travaillons également sur une mise à jour logicielle pour donner aux utilisateurs la possibilité de se retirer (ou peut-être de s’inscrire).
Apple a publié une déclaration simple: «Nous nous engageons à offrir une expérience Siri exceptionnelle tout en protégeant la confidentialité des utilisateurs. Pendant que nous procédons à un examen approfondi, nous suspendons le classement Siri au niveau mondial. De plus, dans le cadre d’une future mise à jour logicielle, les utilisateurs auront la possibilité de choisir de participer à la notation. ”
C’est la bonne chose à faire, mais je me demande ce que la voie à suivre est censée être. Parce que, bien que la plupart des gens ne le réalisent pas, l’apprentissage automatique (ML) et l’IA reposent sur le «classement» humain et il n’ya pas de bonne alternative en vue. Et comme Siri est fréquemment critiqué pour son retard d’un an ou deux sur ses rivaux, il ne sera pas facile pour Apple de rattraper son retard tout en protégeant notre vie privée.
Contenus
Tout le monde le fait
En quoi consiste ce programme de classement Siri? En gros, chaque fois que vous dites «Hey Siri …», la commande que vous prononcez est traitée sur votre appareil, mais également semi-anonymisé et envoyé au cloud. Un petit pourcentage d’entre eux sert à former le réseau de neurones qui permet à Siri (et à la fonction de dictée d’Apple) de comprendre avec précision ce que vous dites. Quelqu'un, quelque part dans le monde, écoute certaines des commandes «Hey Siri» et note si Siri a bien compris la personne ou non.
Ensuite, le réseau d'apprentissage automatique est ajusté et réajusté et réajusté à travers des millions de permutations. Les modifications sont automatiquement testées par rapport à ces échantillons “gradués” jusqu'à ce qu'un nouvel algorithme ML produise des résultats plus précis. ensuite cette réseau de neurones devient la nouvelle ligne de base et le processus se répète.
Il n’existe aucun moyen de former des algorithmes ML (reconnaissance vocale ou photographique, ou de déterminer si votre caméra de sécurité a vu une personne ou une voiture) sans la formation d’un humain.
Il n’existe aucun moyen de former des algorithmes ML (reconnaissance de la parole ou des photos, ou de déterminer si votre caméra de sécurité a vu une personne ou une voiture) sans une formation humaine de la sorte. Si un algorithme informatique pouvait toujours déterminer avec précision si l'IA était juste ou faux, il être l'algorithme d'IA!
Apple, Google, Amazon, Microsoft et quiconque produisant des assistants d'intelligence artificielle utilisant des algorithmes d'apprentissage automatique pour reconnaître la parole ou détecter des objets sur des photos ou des vidéos, ou presque, le font. Ils écoutent vos requêtes d'assistant, ils regardent vos photos, ils regardent vos caméras de sécurité.
Sorte de.
(En fait, Google a également vient de suspendre les révisions de ses enregistrements linguistiques après qu'une enquête allemande ait révélé que des entrepreneurs avaient divulgué des informations confidentielles à la presse. Oops.)
Vous pouvez certainement former les algorithmes ML à l'aide d'un ensemble de photos, de vidéos et d'échantillons vocaux achetés et sous licence. Et beaucoup d'entreprises le font, mais cela ne vous mènera que jusque-là. À vraiment rendre votre IA fiable, elle a besoin de la même qualité de photos, de vidéos et d’enregistrements que ceux pris avec les appareils de votre entreprise. Il a besoin d’un discours désordonné et accentué depuis le microphone de votre téléphone avec le bruit du vent et une tondeuse à l’arrière-plan.
L’entraînement humain de l’IA n’est pas un événement rare, c’est une pratique courante. Les capacités de conduite autonome de Tesla sont renforcées par la formation par un être humain d’un réseau de neurones en examinant les données de la caméra provenant des voitures de ses clients et en marquant les panneaux, les allées, les autres voitures, les vélos, les piétons, etc. Vous ne pouvez pas former un algorithme d’apprentissage automatique de haute qualité sans que les données ne soient examinées.
Anonyme, mais pas tout à fait
Parce qu'il est tout simplement impossible de former un algorithme d'intelligence artificielle de haute qualité destiné à être utilisé par des millions de personnes sans contrôle, la plupart des entreprises tentent au moins de le rendre semi-anonyme. Avant qu'un humain n'entende un enregistrement, il ne contient aucune donnée qui pourrait être utilisée pour identifier un utilisateur précis. Du moins, c’est ce que les entreprises nous disent faire.
Mais il faut généralement une certaine quantité de données au-delà de l’enregistrement vocal ou de la photo / vidéo proprement dite. complètement anonyme.
Par exemple, si je dis «Hé Siri, à quelle heure le magasin UPS sur Greenback Lane se ferme-t-il?» Et Siri pense J’ai dit: «À quelle heure le magasin UPS sur Glenn Brook Lane ferme-t-il?» Je vais obtenir un mauvais résultat. Il n'y a pas de Glenn Brook Lane près de chez moi et certainement pas de magasin UPS. Mais il n’ya aucun moyen pour un système automatisé de savoir que sa transcription était fausse, parce que c’est certainement une chose pourrait dire.
Ainsi, un être humain doit revoir ces choses et savoir en gros où je me trouvais au moment de la demande. Ces "gradateurs" humains ne sauront pas que Glenn Brook Lane se trompe sans suffisamment de données de localisation pour savoir qu’il n’ya pas de Glenn Brook Lane près de moi, non?
De même, une personne visionnant des séquences vidéo sur Ring pour différencier les voitures en mouvement peut avoir besoin de savoir si elle regarde une vidéo provenant d’une caméra extérieure (qui voit beaucoup de voitures) ou d’une caméra intérieure (qui ne devrait voir que les voitures à travers les fenêtres).
La divulgation complète est la clé
Il est difficile de savoir comment les consommateurs réagiront à la manière dont leurs données peuvent être utilisées pour former des algorithmes d’IA, s’ils savent exactement comment cela fonctionne et ce qui est fait pour protéger leur vie privée. J’ai le sentiment que la plupart des gens l’accepteraient (si 1,2 milliard de personnes n’utilisaient que Facebook et leur vie privée, Facebook ne serait pas utilisé par Facebook).
Mais ils ne le savent pas et aucune des entreprises impliquées ne semble intéressée à l'expliquer. De courtes déclarations à la presse technologique ne sont pas la même chose que d’informer vos centaines de millions d’utilisateurs. Cacher des déclarations permissives 4000 mots dans votre contrat de termes de service ne compte pas. Cette absence de divulgation est un échec majeur.
L’un des plus gros problèmes est le fait que les assistants virtuels enregistrent souvent des choses qu’ils ne sont pas supposés faire. Siri, Alexa et Google Assistant enregistrent toujours en principe. Ils écoutent quelques secondes à la fois dans une mémoire tampon sans cesse en boucle sur l'appareil, et n'envoient aucune information, jusqu'à ce qu'ils entendent la phrase de réveil: Hey Siri, Alexa ou OK Google / Hey Google. Ensuite, ils activent la connexion réseau et envoient vos données au cloud.
Comme nous le savons tous, il arrive que ces phrases de réveil ne fonctionnent pas et qu’elles soient déclenchées même lorsque personne ne les dit. Ces faux déclencheurs sont ce qui finit par amener les «gradés» humains à entendre des extraits de conversations privées, de trafic de drogue, d’activités sexuelles, etc.
Encore une fois, il n’ya pas de solution simple. Ces assistants ne seront pas parfaits pour entendre leurs phrases de réveil à moins que des êtres humains ne leur disent vraiment quand ils se sont trompés.
Faire le travail nous-mêmes
Cela ne signifie pas nécessairement que nous devons transmettre nos données à d’autres. Nous pourrions faire la formation et le classement nous-mêmes. Apple pourrait changer l'iPhone afin que, chaque fois que Siri est convoqué, de simples boutons «corrects» ou «incorrects» nous soient présentés. Si l'utilisateur marque un point incorrect, il pourrait peut-être offrir plus d'informations – la phrase correcte ou la manière dont la réponse donnée ne correspondait pas à ce à quoi on s'attendait.
Des mots clés nous permettant de faire la même chose avec notre voix pourraient être donnés aux haut-parleurs intelligents, peut-être en utilisant un téléphone lié pour faire des corrections.
Ensuite, l’algorithme ajusté, mais aucune de nos données personnelles, pourrait être renvoyé à la société mère pour être combiné avec les autres utilisateurs et intégré à la prochaine version du logiciel. Certaines entreprises utilisent déjà cette méthode pour certains types d’algorithmes ML, comme le texte prédictif intelligent dans les claviers (où, par nature, nous corrigeons tous les erreurs).
La grande majorité des utilisateurs ne prendraient jamais la peine de noter et de corriger leur assistant virtuel, bien entendu. Leur but est d'éviter cet ennui et qui veut passer en revue chaque déclencheur de mouvement mal diagnostiqué sur leur caméra de sécurité intelligente ou leur photo mal étiquetée dans un album photo alimenté par une IA? C'est travail. C’est le contraire de ce que l’IA est pour.
Mais avec un public assez important, et Apple peut certes prétendre qu'avec plus d'un milliard d'appareils utilisés, même un infime pourcentage d'utilisateurs actifs formant leurs appareils constituerait un échantillon considérable. Cela pourrait même suffire à faire de Siri un exceptionnel Assistant d'IA, ce qui n'est actuellement pas le cas.
Une entreprise comme Apple serait-elle disposée à faire un effort supplémentaire? Pour ternir sa conception lisse et ses apparences «ça fonctionne» avec une interface facilement accessible qui, de par sa propre existence, implique que quelque chose ne fonctionne pas assez souvent? Probablement pas. Apple va probablement terminer rapidement l’examen de son programme de classement et le réinstaller avec un commutateur dans les paramètres de confidentialité pour le désactiver. C’est une chose simple à faire, mais c’est une occasion manquée de transformer au moins une petite partie des centaines de millions d’utilisateurs de Siri en améliorants actifs de Siri.