background preloader

Intelligence Artificielle

Facebook Twitter

Qu’est-ce que AutoGPT, le robot qui rend autonome ChatGPT en repoussant les limites de l’IA ? Latest Demo of Auto-GPT, an open-source experiment to make #GPT4 into a fully autonomous AI🤯🤖You can now give the AI whatever task you like! 💰If you would like to give it a try yourself, feel free to check out the GitHub repo in the comments below, it's free! 👇 pic.twitter.com/sZJx3BQiRS — Significant Gravitas (@SigGravitas) March 30, 2023 Pour être guidée, l’intelligence artificielle de ChatGPT a besoin d’instructions des humains. Elle ne fonctionne que si quelqu’un le lui demande. Mais avec AutoGPT, l’IA peut gérer une tâche toute seule, sans l’intervention d’un être humain. Cette application a été conçue pour s’adapter aux tâches qui « nécessitent une planification à long terme et plusieurs étapes ». « Les modèles d’IA existants, bien que puissants, ont souvent du mal à s’adapter aux tâches qui nécessitent une planification à long terme, ou sont incapables d’affiner de manière autonome leurs approches », explique à Vice Toran Bruce Richards.

Possibilités immenses Autoévaluation. Vidéo - Les Européens face à l'intelligence artificielle : faut-il accélérer ou stopper cette révolution ? Pour paramétrer vos choix, cliquez sur Gérer mes cookies. Nous vous invitons à consulter notre politique de cookies, qui décrit comment fonctionnent les cookies susceptibles d’être lus ou déposés sur votre appareil, notamment ceux ne nécessitant pas votre consentement car indispensables au bon fonctionnement du site ou permettant de faciliter la communication électronique.

Vous pourrez modifier votre consentement à tout moment en cliquant sur "Gérer les cookies" en bas de page du site. IA: pourquoi la (vraie) photo de CRS devant le Conseil constitutionnel sème la confusion. Avec l’essor des générateurs d’images par intelligence artificielle, la question est souvent de savoir si une photo est réelle. Mais ce jeudi, c’est un cliché authentique qui a soulevé les interrogations. Il y a peu de chance de croiser Emmanuel Macron en train de sortir les poubelles. Pas plus de voir le pape François se balader emmitouflé dans une doudoune blanche. Mais est-il possible d’entasser une centaine de CRS devant le Conseil constitutionnel? Une photographie prise ce jeudi a semé le trouble. Jusqu’à maintenant, il était possible de s’étonner devant un cliché insolite.

Mais depuis l’émergence des outils de génération d’images par intelligence artificielle, la stupéfaction a laissé place à la suspicion. Les détecteurs d'IA trompés Le cliché de Stéphane Mahé, photographe pour l’agence Reuters, a fait le tour des réseaux sociaux, mais aussi des médias, notamment en Une du journal Libération. Des indices pour authentifier une image. L’IA à la rescousse de la cybersécurité. La cybersécurité, un impératif commercial Édition du 12 Octobre 2022 Puisque ce sont souvent des algorithmes qui contrôlent les ordinateurs pour lancer des attaques, l’IA est en mesure d’identifier ces « patterns » beaucoup plus efficacement qu’un humain. (Photo: 123RF) LA CYBERSÉCURITÉ, UN IMPÉRATIF COMMERCIAL. L’intelligence artificielle (IA) est devenue un élément de protection contre les assaillants numériques.

Ses aptitudes de détection sont énormes. « L’IA a transféré le pouvoir de l’humain vers la machine, que ce soit pour une attaque ou se défendre », fait remarquer Dmitri Vitaliev, fondateur de l’entreprise montréalaise eQualitie. Puisque ce sont souvent des algorithmes qui contrôlent les ordinateurs pour lancer des attaques, l’IA est en mesure d’identifier ces « patterns » beaucoup plus efficacement qu’un humain.

. « Pour mener une attaque réussie contre un réseau sécurisé, cela prend de la créativité pour trouver de nouveaux moyens ou d’autres portes d’entrée, affirme-t-il. Le collectif français "Confiance.ai" passe à l'action. Soutenu par des fonds de France 2030, le programme « Confiance.ai » a présenté ses premières réalisations, un socle d’outils et de méthodes pour développer des composants IA de … confiance. La question du fonctionnement sûr, explicable et équitable des intelligences artificielles est un sujet critique pour toutes les entreprises de tous les secteurs.

L’IA ne pourra prétendre à son rôle transformateur que si l’on peut lui accorder une confiance mesurable, voire certifiable. La détection des biais, l’explicabilité des raisonnements qui conduisent aux résultats présentés, la compréhension des mécanismes cognitifs, les questions de preuve formelle des systèmes d’apprentissage sont des sujets critiques à la frontière entre l’informatique, les statistiques, les mathématiques, les data-sciences et les sciences cognitives. Lancé début 2021 pour une durée de 4 ans, le programme Confiance.ai regroupe aujourd’hui une cinquantaine de partenaires industriels et académiques.

Dernier exemple, Renault. Pour généraliser l’IA responsable, il nous faut des certifications. Entre innovations transformatrices et dérives dangereuses, l’IA doit impérativement perdre son côté boîte noire et s’appuyer sur des certifications voire des labels pour établir la confiance sans laquelle elle ne pourra s’imposer à long terme. Par Gwendal Bihan, Président & CTO d’Axionableet Eric Boniface, Directeur de Labelia Labs L’Intelligence Artificielle (IA) présente un paradoxe pour notre société : les techniques d’IA ouvrent la perspective de nouvelles innovations et avancées concrètes pour faire face à certains grands défis sociétaux et environnementaux (par exemple dans les domaines de la santé, des risques climatiques, des fake news…) mais font naître également des risques nouveaux qui peuvent amener à des dérives insoutenables.

Pour y faire face, et pour permettre leur développement utile, les systèmes d’IA se doivent d’être responsables, sobres et de confiance. Revenons sur deux cas de biais emblématiques. Cela tombe bien, la France est en pointe dans ce domaine ! Des IA peu fréquentables... Hors des chemins fantasmagoriques de la science-fiction, l’intelligence artificielle s’affirme chaque jour un peu plus comme un outil essentiel pour seconder l’humain dans ses tâches les plus complexes ou les plus rébarbatives… Mais le pire peut aussi côtoyer le meilleur… L’IA a, ces dernières années, démontré sa capacité à battre les humains sur leurs jeux favoris.

Il y eut IBM Watson est sa victoire à Jeopardy en 2011. Celle d’AlphaGo au Go en 2016 et 2017. Son successeur, AlphaZero, a appris à jouer aux échecs en 4 heures avant de battre à plat de couture le logiciel de jeu d’échecs champion du monde « Stockfish 8 ». Récemment une IA signée Microsoft Research a explosé le record humain à Ms Pac-Man et atteint le score maximal possible. Plus récemment OpenAI a démontré que plusieurs AI pouvaient collaborer et former un team à même de donner du fil à retordre aux meilleurs joueurs de la planète sur des MMO comme Dota2. Un label franco-allemand pour une IA de confiance va voir le jour. Un pacte a été scellé entre le collectif Confiance.ai (côté français) et l'association allemande VDE, pour créer un label franco-allemand pour une IA de confiance.

Dans un communiqué de presse diffusé le 6 octobre 2022, Confiance.ai précise que « cette alliance étroite entre des acteurs clés en France et en Allemagne, représentant un nombre important de secteurs industriels stratégiques pour l’Europe, vise à soutenir le futur règlement européen sur l’intelligence artificielle (l'AI Act) ». En effet, les deux entités prévoient de créer, courant 2023, un label commun franco-allemand sur l’IA de confiance, qui sera étroitement lié aux futures normes européennes. Dans la même catégorie Son objectif est de fournir les lignes directrices et spécifications pour les applications d’IA, mais aussi de préparer les écosystèmes à se mettre en ordre de marche en vue du respect de l’AI Act. IA : comment une alliance inédite de 900 acteurs lutte contre les « deep fakes » Pourquoi l'IA ne provoquera pas de chômage ? L'apocalypse de l'emploi est toujours au coin de la tête, « il suffit de demander aux luddites », estime Marc Andreessen.

L'économie est en plein marasme. Les emplois de la classe moyenne sont en train de disparaître. Les leaders technologiques craignent que l’IA ne remplace la plupart des emplois. Il n'y aura plus de travail pour la plupart des gens. Les gens sont généralement pessimistes quant à l'avenir du travail. Il existe une multitude de scénarios catastrophiques pour l'avenir. Depuis des centaines d'années, les sociétés industrialisées craignent que les nouvelles technologies ne remplacent le travail humain et n'entraînent un chômage généralisé, « et ce malgré l'augmentation quasi continue des emplois et des salaires dans les économies capitalistes, déclare Marc Andreessen. Qui n’est pas informé de la frayeur créée par l’outil d’IA ChatGPT ? Marc Andreessen est un des membres de l'équipe d'étudiants de l'Université de l'Illinois qui a développé, en 1993, Mosaic, le premier navigateur web complet disponible pour les systèmes d'exploitation Mac OS, Windows et UNIX.

L’IA dans le domaine de la justice. Intelligence artificielle et cybersécurité - Entrez dans une nouvelle ère. Impact de la COVID-19 sur la cybersécurité La COVID-19 a jeté la lumière sur le manque de préparation des entreprises dans la gestion des problèmes liés à la cybersécurité. Le passage au télétravail et la recrudescence de l’utilisation des canaux numériques ont entraîné un nombre croissant de problèmes liés à la cybersécurité. De nombreuses entreprises et particuliers se précipitent pour actualiser leurs systèmes et protéger leurs données. Cette très forte augmentation des menaces a accru le besoin de contrôles de sécurité et les tests de vulnérabilité. Les entreprises se tournent de plus en plus vers l’Intelligence artificielle (IA) afin de contribuer à mettre en échec les menaces croissantes de cyberattaques. Il est mathématiquement impossible, même pour les grandes équipes de sécurité informatique des entreprises, de contrôler l’ensemble des menaces et de passer au crible des centaines de milliers de vulnérabilités2.

Le coût élevé de la cybercriminalité Conclusion AdMaster: 1369261. GitHub Copilot : pair programmig avec une intelligence artificielle, un billet blog d'Hinault Romaric. Cela fait plusieurs mois que je fais du pair programming avec un partenaire assez spécial : une intelligence artificielle. Avant d’aller plus loin dans ce billet de blog je vais prendre quelques lignes pour définir dans un premier temps c’est quoi le pair programming ou programmation en binôme en français. Il s’agit d’une approche de travail dans laquelle deux développeurs travaillent ensemble sur un même poste de travail. La personne qui rédige le code est appelée conducteur (driver).

La seconde personne, appelée observateur (observer), assiste le conducteur en décelant les imperfections, en vérifiant que le code implémente correctement le design et en suggérant des alternatives de développement. Les rôles s'échangent régulièrement pendant la séance de programmation. Qu’est-ce que GitHub Copilot ? Comme je l’ai mentionné un peu plus haut cela fait quelque temps que j’ai un collaborateur un peu étrange qui s’appelle GitHub Copilot. Vous-vous demandez probablement c’est quoi/qui Copilot.

Google lance une alerte rouge à ses équipes pour le développement d'un concurrent à ChatGPT, l'IA qui menace son moteur de recherches et les postes des développeurs informatiques humains. Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. C’est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de son « intelligence. » Certains le qualifient même de remplaçant du moteur de recherche Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes et ce, de façon détaillée.

Chez Google on se sent en danger. Le CEO vient donc de lancer une alerte rouge à l’intention de ses équipes pour le développement d’un concurrent à ChatGPT. ChatGPT a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Cette édition de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US porte sur 4 questions. C’est en raison de tels développements que Google entend réagir. Et vous ? Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité.

Ce qu’on sait de cette intelligence artificielle de l’entreprise OpenAI est qu’il s’agit d’un chatbot capable de comprendre le langage naturel et de répondre en langage naturel. Certains la qualifient même de remplaçant de Google. Le Département de l’éducation de New York vient d’en interdire l’utilisation en raison de préoccupations concernant les effets négatifs sur l'apprentissage des élèves, ainsi que la sécurité et l'exactitude du contenu. La firme CheckPoint vient de publier un rapport susceptible de renforcer cette perception : des cybercriminels la testent déjà pour créer des logiciels malveillants. Le tableau ravive des craintes sur un futur où l’intelligence artificielle pourra surpasser l’intelligence humaine.

Du rapport de CheckPoint, il ressort que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. Source : CheckPoint Et vous ? Voir aussi : Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses, et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable. Les chatbots IA sont devenus très populaires ces derniers temps, la précision de leurs réponses étant saluée comme le signe d'une industrie en progrès. Malgré cela, ces outils peuvent être utilisés à des fins malveillantes, comme tout autre type d'outil. Le chatbot le plus populaire, ChatGPT, a récemment commencé à être utilisé pour des attaques de phishing. Les acteurs malveillants utilisent le chatbot pour rédiger des e-mails convaincants qui peuvent convaincre les utilisateurs de cliquer sur des liens dangereux. Les experts en cybersécurité de Check Point Research ont récemment cherché à démontrer à quel point ChatGPT peut être dangereux s'il est utilisé à des fins malveillantes.

Pour ce faire, ils ont créé, via ChatGPT, un fichier Excel dans lequel a été injecté un code malveillant. Tout ce qu'ils avaient à faire était de demander au chatbot d'écrire un code qui exécuterait un téléchargement malveillant à partir d'une URL une fois le texte saisi dans un fichier Excel. Et vous ? Airbus teste une technologie appelée DragonFly qui vise à rendre ses avions de ligne entièrement autonomes, mais beaucoup sont sceptiques face aux systèmes visant à supprimer les pilotes du cockpit. Airbus UpNext, une filiale du géant de l'aéronautique qui valide les nouvelles technologies avant de les déployer sur l'ensemble de la flotte, a annoncé qu'elle teste une nouvelle technologie de vol autonome.

Appelée DragonFly, la nouvelle technologie s'attaque aux opérations automatisées telles que les déroutements, les atterrissages et les procédures de roulage grâce à une combinaison de capteurs, d'algorithmes de vision par ordinateur et de calculs de guidage robustes. Airbus a présenté sa nouvelle technologie DragonFly comme un niveau de sécurité supplémentaire pour les opérations d'urgence. Airbus explore le prochain niveau d'automatisation du cockpit, en testant un système qui fournirait une assistance avancée allant des alertes au sol aux déroutements d'urgence à l'altitude de croisière en cas d'incapacité de l'équipage. . « Ces tests constituent l'une des nombreuses étapes de la recherche méthodique de technologies visant à améliorer encore les opérations et la sécurité. Et vous ? Comprendre l'intelligence artificielle en 10 minutes. Le gouvernement français souhaite expérimenter à grande échelle des caméras de surveillance dotées d'IA lors des JO de Paris en 2024 pour détecter en temps réel les comportements suspects.

JO : feu vert pour la vidéosurveillance par intelligence artificielle.