L'apprentissage automatique peut permettre des changements positifs dans la société, comme l'indique Adam Benzion, directeur de l'expérience client Edge Impulse. Lisez la suite pour voir comment la société prévient de l'utilisation de sa plateforme de développement ML/AI contraire à son éthique. 

Adam Benzion on ethics and machine learning
Adam Benzion (Directeur de l'expérience client, Edge Impulse)

Priscilla Haring-Kuipers: Sur quelle éthique en électronique travaillez-vous?

Adam Benzion:  A Edge Impulse, par notre travail nous essayons de faire du bien dans le monde , et ce sont les valeurs fondamentales de notre culture et de notre philosophie. Nos fondateurs, Zach Shelby et Jan Jongboom définissent cela ainsi: “L'apprentissage automatique peut permettre des changements positifs dans la société, et nous nous engageons à soutenir les applications pour le plus grand bien de tous". Cela est fondamental pour savoir pourquoi et comment nous faisons les choses. Nous investissons nos ressources pour soutenir des initiatives comme UN Covid-19 Detection & Protection, Data Science Africa, la conservation de la faune avec Smart Parks, Wildlabs, et ConservationX.

Cela implique que nous avons une responsabilité pour prévenir d'une utilisation non-éthique de notre plateforme de développement ML/AI. Lors du lancement de Edge Impulse en janvier 2020, nous avons décidés d'exiger une licence d'intelligence artificielle (IA) responsable pour nos utilisateurs, qui empêche l'utilisation à des fins criminelles, de surveillance ou toutes applications militaires ou de police néfastes. Nous avons un certains nombre de cas ou nous avons refusé un projet qui n'était pas compatible avec cette licence. Il existe aussi beaucoup d'utilisations positives de ML dans des applications gouvernementales et de défense, que nous soutenons car en adéquation avec nos valeurs.

Nous avons également rejoints "1% pour la planète", en nous engageant à donner 1% de notre chiffre d'affaires pour soutenir des organisations à but non lucratifs portées sur l'environnement. Je dirige personnellement une initiative qui se focalise sur la préservation des éléphants, en partenariat avec une organisation appelée Smart Parks, et a aidé à développer un nouveau collier de géolocalisation à base d'IA, qui peut durer huit ans, et permet de comprendre comment les éléphants communiquent entre eux. Cela est déployé en ce moment dans des parcs à travers le Mozambique. 

Haring-Kuipers: Quelle est la question éthique la plus importante dans votre domaine?

Adam Benzion:
Il y a beaucoup de problèmes éthiques liés à l'utilisation de l'IA dans le contrôle de la population, la reconnaissance et la géolocalisation de personnes, sans parler des armes alimentées par l'IA. Surtout lorsqu'il s'agit de sécurité et de dignité humaine, les applications à base d'IA doivent être soigneusement évaluées, légiférées et réglementées. Nous rêvons d'automatisation, d'expériences magiques amusantes, et de technologies d'assistance humaine, qui font les choses mieux, plus rapidement et à un coût moindre. C'est le bon rêve de l'IA, et c'est ce que nous voulons tous construire. Dans un monde parfait, nous devrions tous être capables de voter les lois et les règles qui régissent l'intelligence artificielle.

Haring-Kuipers: Que voudriez-vous inclure dans un code de déontologie de l'électronique?

Adam Benzion: Nous devons regarder comment l'IA impacte les droits humains ainsi que la responsabilité des machines, par exemple en cas de défaillance d'une machine à base d'IA, dans le cas de conduite autonome, qui est responsable? Sans lignes directrices universelles pour nous aider, c'est à chaque société qu'il revient de trouver ses valeurs et ses limites dans son domaine, pour ainsi bénéficier tous ensemble de cette passionnante nouvelle vague.

Haring-Kuipers: Un choix difficile..la plus importante question avant de construire quoi que ce soit est:  A) Est-ce-que je suis censé construire cela? B) Est-ce-que je peux le faire ? C) Comment puis-je le réaliser?

Adam Benzion:
A, dans les limites du raisonnable, vous pouvez construire presque n'importe quoi, alors posez-vous la question: est-ce-que les résultats par rapport aux efforts fournis valent-ils vraiment la peine que vous y passiez un temps précieux?


À propos de l'auteur

Priscilla Haring-Kuipers écrit à propos de technologies d'un point de vue des sciences sociales.  Elle s'intéresse particulièrement dans la technologie pour le bien de l'humanité et croit fermement dans la recherche de ses effets. Elle est titulaire d'une maîtrise en psychologie des médias et réalise This Is Not Rocket Science. 


WEEF 2022

WEEF 2022

Le forum mondial de l'électronique éthique (WEEF 2022), prévu pour novembre 2022, s'appuiera sur l'élan de l'événement de l'année dernière, où les ingénieurs d'Elektor et d'autres leaders d'opinions ont discuté d'éthique et de projets de développement durables. Au cours des prochains mois, Elektor publiera des articles incitant à la réflexion, des interviews et des sondages concernant l'éthique. Visitez le site web du WEEF 2022  (www.elektormagazine.com/weef) pour plus de détails. 


Traduction : Laurent RAUBER