background preloader

Comprendre le web sémantique

Comprendre le web sémantique
Le Web sémantique, ou « langage naturel » est le Saint Graal sur lequel planchent les chercheurs depuis quelques années. Pour un de ses théoriciens, Tim Berners-Lee, l'idée est de parvenir à un Web intelligent, où les informations ne seraient plus stockées mais comprises par les ordinateurs, pour apporter à l'utilisateur ce qu'il cherche vraiment. Le Web sémantique permettra donc de rendre le contenu sémantique du Web interprétable non seulement par l'homme, mais aussi par la machine. L'idée est donc de permettre une recherche intelligente sur le Web, faite par des ordinateurs et basée sur des définitions qu'ils puissent « comprendre », des définitions données pour le monde entier. En faisant une requête sur un moteur proposant de la recherche en langage naturel, vous l'interrogerez comme vous parlez, et il transformera cette demande en langage compréhensible et cohérent pour la machine. Le principe du Web sémantique Premiers développements et usages Trulia À savoir Le moteur de Evi Powerset Related:  Intelligence Artificielle Robert

Web sémantique, personnalisation des résultats,… Oubliez aujourd’hui tout ce vous croyez savoir sur le référencement Cela fait des années que l’on annonce la mort du référencement mais aujourd’hui ou le moindre amateur peu ouvertement s’apercevoir que ce métier a vécu, les référenceurs s’enferment dans un déni repoussant sans cesse la mutation nécessaire de leur métier. Alors que le monde de la visibilité internet a aujourd’hui changé à tout jamais les référenceurs appliquent toujours les mêmes vieille méthodes. Se concentrant sur des positionnements de mots clef toujours plus contestable et des méthodes d’expérimentations ne pouvant fournir d’échantillon mesurable d’une quelconque influence sur les moteurs de recherche. Je sais en écrivant cet article combien les mots que je vais utiliser vont soulever un torrent d’insultes et autres réactions extrêmes alors que mon propos n’est pas de négliger ou mépriser le travail réalisé par bon nombre de ces prestataires soucieux de satisfaire leur clientèle. 1 – Les usages d’internet ont totalement changés 2 – Le contenu d’internet n’est plus le même. Conclusion :

L'Internet des objets : Internet, mais en mieux: Amazon.fr: Philippe Gautier, Laurent Gonzalez Laurence Devillers : l’empathie des robots Laurence Devillers est Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Elle nous parle des dimensions affectives dans nos interactions avec les machines. Avec elle, nous pouvons imaginer ces robots à venir qui participeront au soin des personnes âgées, les aideront dans leurs tâches quotidiennes, leurs permettront de rester plus longtemps autonomes. Cela nous conduit évidemment à réfléchir à un autre sujet : il ne faudrait pas que de tels robots deviennent une excuse pour nous décharger sur eux du soin de personnes qui doivent aussi être entourées par des humains.Laurence Devillers est membre de la CERNA, la commission de réflexion sur l’Ethique de la recherche en sciences et technologies du Numérique d’Allistène et a participé au rapport sur l’Ethique du chercheur en robotique. Elle participe également à une initiative mondiale IEEE sur l’éthique dans la conception de systèmes autonomes.

Le web sémantique ou le futur du Web | un blog, des blogs L’expression « Web sémantique » a été utilisée la première fois en 1994 par Tim Berners-Lee, l’inventeur du World Wide Web et directeur du World Wide Web Consortium (« W3C »), qui supervise le développement des technologies communes du Web sémantique. En 1999, Tim Berners-Lee a exprimé la vision du Web sémantique comme suit : « J’ai fait un rêve pour le Web [dans lequel les ordinateurs] deviennent capables d’analyser toutes les données sur le Web — le contenu, liens, et les transactions entre les personnes et les ordinateurs. Un « Web Sémantique », qui devrait rendre cela possible, n’a pas encore émergé, mais quand ce sera fait, les mécanismes plan-plan d’échange, de bureaucratie et de nos vies quotidiennes seront traités par des machines dialoguant avec d’autres machines. Les « agents intelligents » qu’on nous promet depuis longtemps vont enfin se concrétiser. » — Weaving the Web Le « Layer cake » de Tim Berners-Lee Voici une autre excellente vidéo (et en français !) (Source : BnF)

CubicWeb Semantic Web Framework Web sémantique : Google active son Knowledge Graph en français Google a attendu le lancement de la conférence LeWeb 2012 pour annoncer le déploiement en France et dans six autres pays de sa base de données Knowledge Graph. Celle-ci permet d'introduire une dose de web sémantique dans les résultats de recherche. Par exemple, une recherche sur la Tour Eiffel donne à la fois des résultats sous forme de liens vers des sites web, mais également une boîte d'informations sur l'objet de la recherche lui-même. Mieux cibler les recherches Le Knowledge Graph était déjà déployé depuis cet été, mais à partir de la base de données en anglais. Cet outil doit permettre d'apporter d'autres informations sur une recherche, dans la veine de ce qu'on trouve déjà à des degrés divers ailleurs. Pour Google, qui détaille son annonce dans un billet de blog, il s'agit de mieux cibler les recherches - en proposant de lever l'ambiguïté sur une requête par exemple, d'apporter plus d'informations rapidement, mais aussi de "faire des découvertes inattendues."

Robot journaliste : en un an, une IA créée par le Washington Post a publié 850 articles - Tech Le Washington Post recourt depuis désormais un an aux services d'une intelligence artificielle pour écrire des articles. Baptisé Heliograf, ce croisement entre un robot et un journaliste a signé plus de 800 textes, en couvrant des actualités politiques et sportives. Quand vous êtes en train de lire la prose d’un journaliste, prêtez-vous attention à l’identité de l’auteur ou de l’autrice ? De l’autre côté de l’Atlantique, les lecteurs du Washington Post peuvent désormais lire, depuis un an, des articles intégralement rédigés par un journaliste qui n’a pas forme humaine. Or, cette intelligence artificielle n’a pas été mise en sommeil après la fermeture des jeux. Au cours de sa première année de fonctionnement, l’intelligence artificielle du Washington Post a publié près de 850 articles. 500 articles consacrés aux élections ont généré 500 000 clics Cet exemple de journalisme assisté par une IA n’est pas un cas isolé.

Quel sera le web de demain ? web 3.0: Sémantique, 3D...? A la question « Quel sera le web de demain? » beaucoup d'avis avec des points de vue divergents. Cette question peut d’ailleurs être aborder sous deux angles différents, l’évolution de la technologie du web d’une part (web 3.0, web sémantique, web 3D…) et l’évolution de l’utilisation du web (sociologie) d’autre part. Le point sur lequel tous les acteurs du web s’entendent est un constat simple: Le web a déjà connu plusieurs mutations depuis sa création et d’autres sont à venir. Web 3.0, sémantique, 3d, oui mais encore… Il existe des études et des sources permettant de dater les périodes des différentes versions du Web (web 1.0, 1.5, 2.0, 2.5, 2.B …, web 3.0), elles apparaissent parfois contradictoires. Qu’est ce que le web 1.0, le web 2.0 ? A partir des années 1995, le Web 1.0 se construit de manière pyramidale. Au fil de leur navigation, les internautes ajoutent du contenu au travers de liens hypertextes et autres tags, annotations ou commentaires. Que nous réserve encore le web 3.0 ?

Related: