Tech Titans Join Forces to Stop AI from Behaving Badly
When it comes to policing artificial intelligence, technology leaders think there is safety in numbers. A new organization called the Partnership on Artificial Intelligence to Benefit People and Society will seek to foster public dialogue and create guidelines for developing AI so that systems do not misbehave. The companies involved include Google and its subsidiary DeepMind, Facebook, Amazon, Microsoft, and IBM. The partnership is founded on eight tenets or principles, including the idea that AI should benefit as many people as possible; that the public should be involved in its development; that research should be conducted in an open way; and that AI systems should be able to explain their reasoning. That such fierce rivals would come together in this way shows how important the companies feel it is to head off public concern and speculation over the potential impacts of AI. It’s unclear precisely how the organization will engage with the public or those developing AI.
Be Evil: Google accusé d'abuser de son pouvoir pour faire taire ses critiques
« Don’t be evil. » Cette promesse faite par Google en l’an 2000, de gagner de l’argent sans vendre son âme au diable, a été depuis mise à rude épreuve. Valorisée à 650 milliards de dollars, l’entreprise californienne est aujourd’hui l’une des plus puissantes du monde. Et ces dernières semaines, plusieurs personnes l’accusent d’avoir utilisé son pouvoir pour faire taire des voix critiques. >> A lire aussi : L'inquiétante guerre des géants du Web contre les sites néonazis Un article retiré par Forbes La journaliste de Gizmodo Kashmir Hill accuse Google d’avoir fait pression sur Forbes, en 2011, pour faire retirer un article critique. Le coup de fil ne se fait pas attendre. Un membre d’un think tank financé par Google écarté Le think tank New America Foundation a reçu plus de 21 millions de dollars de la part de Google, du président du conseil d’administration de sa maison-mère Alphabet, Eric Schmidt, et de sa fondation familiale. Un employé auteur d’un mémo controversé licencié
Ethique et morale en Intelligence Artificielle : Un chantier d'avenir
Faut-il interdir les robots tueurs, ces armes autonomes capables de fonctionner sans intervention humaine ? Les programmes militaires (en tout premier lieu la DARPA aux USA) se sont évidemment intéressés très tôt aux armes capables de fonctionner seules et dans un but originellement assez louable d’ailleurs : protéger du feux ses propres soldats. Ce sont ces organisations qui ont, les premières, développé ces nouveaux outils pour leur propre compte (on peut également penser, en vrac, au GPS, à internet, etc…). Aussi, dans les années 60, de vastes programmes gouvernementaux ont été des investisseurs phares (avant certaines désillusions) et ce, dès les premières heures de l’IA. Des projets de défense militaire couplés à l’IA fourmillent partout dans le monde avec les dérapages que cela peut engendrer sur l’humanité. L’US Army développe en ce moment une multitude d’exo-squelettes, de robots et de drones dont certains pourraient être équipés d’armes létales.
Quelle liberté à l'ère Google ?
L'histoire du jour En économie, le libéralisme est une doctrine qui défend la libre entreprise et la liberté du marché. Au sens politique, le libéralisme défend la démocratie politique et les libertés individuelles. A l’échelle planétaire, le moteur de recherche américain traite chaque jour trois milliards de requêtes. Il existe au moins six moteurs de recherche alternatifs, avec des modèles éthiques. Mais Google a plusieurs cordes à son arc. Il va donc peut-être alors un petit coup de pouce de l’Etat pour aider le consommateur à entrer en cure de désintoxication.
CERNA
Contenus haineux et fake news : Google fait le ménage dans son algo - ZDNet
En décembre dernier, la presse britannique avait épinglé Google pour des résultats douteux. Ainsi, lors d'une requête en anglais "l'holocauste a-t-il eu lieu ?", c'est un site violemment négationniste, donc puni par la loi, qui remonte au premier rang sur pas moins 14 millions de réponses. Malaise voire scandale. Google met régulièrement en avant la pertinence de ses résultats et de fait, avec ce type de question, les seules réponses qui ont vocation à bien remonter sont celles des négationnistes ... Pour autant, face à cette situation (et à d'autres : la même requête en français fait remonter en premier résultat le site de Robert Faurisson, négationniste français), Google consent aujourd'hui à quelques efforts. Google annonce ainsi aujourd'hui avoir retouché son algorithme afin d'écarter les résultats "qui ne font pas autorité". "Nous avons ajusté ces signaux pour promouvoir les pages fiables dans notre classement et rétrograder les contenus de mauvaise qualité.
Intelligence artificielle : de l'importance des principes de vigilance et de loyauté des algorithmes pour "garder la main"
La CNIL publie la synthèse du débat public organisé sur « les enjeux éthiques des algorithmes et de l’intelligence artificielle » . 3 000 personnes ont participé à 45 manifestations, avec pour objectif de donner des éléments de réponses à la question suivante : « comment permettre à l’Homme de garder la main ? ». La Présidente de la CNIL, Isabelle Falque-Pierrotin, a présenté ce rapport en présence du Secrétaire d’État chargé du Numérique, Mounir Mahjoubi, et du député chargé par le gouvernement d’une mission sur l’intelligence artificielle, Cédric Villani. Pourquoi ce rapport sur les enjeux éthiques des algorithmes Selon la Loi pour une République Numérique, la CNIL a pour mission de « mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies ». Les problématiques soulevées par l’intelligence artificielle 2 principes fondateurs pour réguler l’intelligence artificielle Un principe de loyauté des algorithmes Un principe de vigilance/réflexivité
Oui, Google Maps arrange la réalité pour servir ses intérêts
Vous connaissez sans doute Jean-Christophe Victor. On l’a vu vieillir à la télévision à mesure que son émission « Le Dessous des cartes » se numérisait. Ce fils de l’explorateur Paul-Émile Victor vient de publier un nouvel atlas de l’Asie (éd. Tallandier). Dans un entretien accordé à Libé, Jean-Christophe Victor a confié avoir découvert, lors de l’élaboration de l’Atlas sur l’Asie, « que Google Maps mentait ». Des frontières à géométrie variable 1) La zone contestée en pointillés dans la connexion allemande - capture d’écran Sur Google Maps, les frontières peuvent varier selon la version du moteur de recherche utilisé. Avec l’émergence des cartes interactives, l’adage « les cartes produisent le territoire » fonctionne aussi à l’inverse : les territoires produisent les cartes (qu’ils veulent). Afin de comprendre, prenons l’exemple de la frontière sino-indienne, objet d’une guerre entre les deux pays en 1965. 2) La carte indienne vue d »une connexion en Inde - capture d’écran Les axes du vide
Je suis d'accord avec Alix (Degalbert_groupec), ces comités d'éthique sont assez paradoxale, comment être objectif quand on est le créateur de l'algorithme ou de l'intelligence artificielle et avoir un aspect éthique, c'est trop facile, on met le niveau de l'éthique à son bon vouloir. by julien_groupec Mar 19
Bonjour,
Ce qui serait intéressant, c'est que cela aboutissent à des rapports publiés et libre d’accès.
Houria Meddas by meddas_groupec Mar 19
Je me demande toujours ce que valent ces comités d'éthique qui sont juges et parties... Démarche intéressante en tout cas! by degalbert_groupec Mar 15