background preloader

Image-to-Image Demo - Affine Layer

Image-to-Image Demo - Affine Layer
Interactive Image Translation with pix2pix-tensorflow The pix2pix model works by training on pairs of images such as building facade labels to building facades, and then attempts to generate the corresponding output image from any input image you give it. The idea is straight from the pix2pix paper, which is a good read. edges2cats Trained on about 2k stock cat photos and edges automatically generated from those photos. Some of the pictures look especially creepy, I think because it's easier to notice when an animal looks wrong, especially around the eyes. facades Trained on a database of building facades to labeled building facades. I didn't have the names of the different parts of building facades so I just guessed what they were called. edges2shoes Trained on a database of ~50k shoe pictures collected from Zappos along with edges generated from those pictures automatically. edges2handbags Implementation The pre-trained models are available in the Datasets section on GitHub. Related:  Deep learningImage et IA

ASCII Video Projector « earthlingsoft Homepage Present films using characters Download (Version 3, 508KB, Mac OS X.4) Donationware buy us a drink – you know we want it. ASCII Projektor presents films by drawing them with characters. The application accepts films from the computer’s camera as well as from QuickTime files. Previous versions of ASCII Projektor played films in a Terminal window. If you are running Mac OS X.3, please download version 2 of the application which can only play films in the Terminal. Screenshots • E-Mail • Leave a comment • flickr group • Donate GAN Lab: Play with Generative Adversarial Networks in Your Browser! What is a GAN? Many machine learning systems look at some kind of complicated input (say, an image) and produce a simple output (a label like, "cat"). By contrast, the goal of a generative model is something like the opposite: take a small piece of input—perhaps a few random numbers—and produce a complex output, like an image of a realistic-looking face. A generative adversarial network (GAN) is an especially effective type of generative model, introduced only a few years ago, which has been a subject of intense interest in the machine learning community. You might wonder why we want a system that produces realistic images, or plausible simulations of any other kind of data. Besides the intrinsic intellectual challenge, this turns out to be a surprisingly handy tool, with applications ranging from art to enhancing blurry images. How does a GAN work? The first idea, not new to GANs, is to use randomness as an ingredient. What's happening in the visualization? Pick a data distribution. ).

Un programme pour transformer tous les dessins des internautes en photos de chat réalistes Un site propose à ses visiteurs d’esquisser les contours du félin, puis de lui donner une allure réaliste. Un procédé qui donne parfois des résultats surprenants, voire effrayants. C’est un petit programme ingénieux qu’a fabriqué le développeur Christopher Hesse. Image-to-Image permet aux internautes de rendre leurs dessins réalistes. Bien sûr, le résultat est loin d’être parfait... mais c’est justement ce qui fait son charme, et tout son intérêt. Lire aussi : On a testé pour vous… Deep Dream, la machine à « rêves » psychédéliques de Google Deux mille photos de chat pour « entraîner » le programme Basé sur Tensorflow, une technologie d’apprentissage des machines développée par Google et accessible à tous, le programme de Christopher Hesse s’est « entraîné » sur des photos déjà existantes. Cette logique est assez proche de celle qui avait déjà amusé les internautes en 2015, quand Google avait présenté son programme Deep Dream.

Pourquoi l'intelligence artificielle va transformer notre gestuelle Au cours de la dernière décennie, le machine learning a permis l’invention des voitures qui roulent seules, d’une reconnaissance vocale pratique, une recherche sur le Web efficace et une compréhension grandement améliorée du génome humain (Lee Bell, Wired 2016). Avec le machine learning, nous pouvons aujourd’hui apprendre nos gestes à une machine à partir des données transmises par des microcapteurs. Celle-ci sait ensuite les reconnaître, les mémoriser, les interpréter et les partager. Un article du journal Le Monde annonçait « Portée par les progrès de l’intelligence artificielle et du traitement du langage naturel, la voix s’impose peu à peu comme la nouvelle interface pour atteindre l’univers numérique ». Mille milliards de capteurs Depuis dix ans, les microcapteurs prolifèrent et envahissent nos vies. Un nouvel outil pour la rééducation à domicile C’est par la rééducation que nous avons abordé la question. Augmenter nos gestes pour mieux les apprendre ? Faire attention quand on bouge

piq Continuous video classification with TensorFlow, Inception and Recurrent Nets Part 2 of a series exploring continuous classification methods. A video is a sequence of images. In our previous post, we explored a method for continuous online video classification that treated each frame as discrete, as if its context relative to previous frames was unimportant. Today, we’re going to stop treating our video as individual photos and start treating it like the video that it is by looking at our images in a sequence. We’ll process these sequences by harnessing the magic of recurrent neural networks (RNNs). To restate the problem we outlined in our previous post: We’re attempting to continually classify video as it’s streamed, in an online system. Convolutional neural networks, which we used exclusively in our previous post, do an amazing job at taking in a fixed-size vector, like an image of an animal, and generating a fixed-size label, like the class of animal in the image. Sold! Step 2 is unique so we’ll expand on it a bit. Softmax and pool layers? Frames to sequences

Incorporated | LICEcap LICEcapsimple animated screen captures LICEcap can capture an area of your desktop and save it directly to .GIF (for viewing in web browsers, etc) or .LCF (see below). LICEcap is an intuitive but flexible application (for Windows and now OSX), that is designed to be lightweight and function with high performance. LICEcap is easy to use: view a demo (output is here). In addition to .GIF, LICEcap supports its own native lossless .LCF file format, which allows for higher compression ratios than .GIF, higher quality (more than 256 colors per frame), and more accurate timestamping. LICEcap is GPL free software, each download package includes the source. Features and options: Record directly to .GIF or .LCF. Download LICEcap v1.32 for Windows (Jun 8 2022) (250kb installer)LICEcap v1.32 for macOS (Jun 8 2022) (876kb DMG) Windows: Prevent positioning window offscreen [issue 72] Windows: sign installer/executable Source codegit clone Old versions

Des chercheurs japonais ont créé une IA générant une image à partir de vos pensées Des chercheurs japonais du Computational Neuroscience Laboratories (CNS) de Kyoto ainsi que de l’Université de Kyoto ont élaboré une intelligence artificielle capable de voir ce à quoi vous pensez en transcrivant vos pensées par la création d’une nouvelle image. En lisant les ondes cérébrales des personnes, cette intelligence montre ce à quoi vous pensez sous forme d’image. C’est très simple, si vous pensez à la forme d’un carré, sur l’écran devant vous apparaitra une image dans laquelle vous apercevrez un carré, comme on peut le voir sur la vidéo ci-dessous. Durant plus de 10 semaines, de nombreux tests ont été réalisés pour entraîner et améliorer cette intelligence. Grâce aux scintigraphies cérébrales, les scientifiques ont pu créer un réseau d’apprentissage permettant à l’IA de travailler seule afin de décoder les données et voir ce à quoi l’individu pensait. L’intelligence artificielle d’une manière plus générale apprend de la même manière qu’un humain : elle devine. Source : TNW

Keras, Regression, and CNNs In this tutorial, you will learn how to train a Convolutional Neural Network (CNN) for regression prediction with Keras. You’ll then train a CNN to predict house prices from a set of images. Today is part two in our three-part series on regression prediction with Keras: Part 1: Basic regression with Keras — predicting house prices from categorical and numerical data.Part 2: Regression with Keras and CNNs — training a CNN to predict house prices from image data (today’s tutorial).Part 3: Combining categorical, numerical, and image data into a single network (next week’s tutorial). Today’s tutorial builds on last week’s basic Keras regression example, so if you haven’t read it yet make sure you go through it in order to follow along here today. By the end of this guide, you’ll not only have a strong understanding of training CNNs for regression prediction with Keras, but you’ll also have a Python code template you can follow for your own projects. Keras, Regression, and CNNs Project structure

Related: