Table des matières:

La Chaise Longue Interactive Avec Arduino Et Max/MSP. : 5 Étapes
La Chaise Longue Interactive Avec Arduino Et Max/MSP. : 5 Étapes

Vidéo: La Chaise Longue Interactive Avec Arduino Et Max/MSP. : 5 Étapes

Vidéo: La Chaise Longue Interactive Avec Arduino Et Max/MSP. : 5 Étapes
Vidéo: ANGÈLE CONTRE SA PROPRE IA (SAYIAN) 2024, Novembre
Anonim
La Chaise Longue Interactive Avec Arduino Et Max/MSP
La Chaise Longue Interactive Avec Arduino Et Max/MSP
La Chaise Longue Interactive Avec Arduino Et Max/MSP
La Chaise Longue Interactive Avec Arduino Et Max/MSP
La Chaise Longue Interactive Avec Arduino Et Max/MSP
La Chaise Longue Interactive Avec Arduino Et Max/MSP

L'idée est de créer une chaise longue interactive: un utilisateur qui s'assoit dans le transat déclenche une ambiance sonore et visuelle lui rappelant la mer, la plage… Nous utilisons donc un capteur de luminosité (placé sous le transat) reliés à Arduino, relié en USB à un ordinateur avec Max/MSP qui s'occupe de déclencher l'ambiance sonore et visuelle en question.

Auteurs:

Léo, Baptiste, Yvain, Yannick, Tristan, Matthieu, Gaby

Étape 1: Le Matériel

Nous avons besoin de:

- une transat

- capteurs de luminosité

- fils

- une carte Arduino

- un câble USB AB.

- un ordinateur avec Max/MSP

Étape 2: L'architecture

L'architecture
L'architecture

Étape 3: Les Branchements

Les Branchements
Les Branchements
Les Branchements
Les Branchements

Le capteur est branché à l'entrée Analog2 A2.

La LED est branchée à l'entrée Digitale2 D2.

Étape 4: Le Code Arduino

Le Code Arduino
Le Code Arduino

Le programme, relativement simple agit de la façon suivante:

* Si le capteur capte une valeur comprend entre 0 et 250, la valeur retenue est 1.

* Si le capteur capte une valeur supérieure à 250, la valeur retenue est 0.

Étape 5: Le Patch Max/MSP

Le Patch Max/MSP
Le Patch Max/MSP

On utilise l'objet Serial pour récupérer les données de l'Arduino: on récupère une chaîne de caractères que l'on transforme en 1 et 0 grâce à l'objet fromsymbol.

Ensuite on redimensionne l'échelle de 0 à 1 en 0 à 127 avec l'objet scale.

L'objet slide (250, 500) est introduit et nous permet d'avoir un temps de montée de 250ms et un temps de descente de 500 ms: voici le fade-in et le fade-out de notre vidéo et de notre son.

Par la suite, on divise ces valeurs par 127 pour avoir des valeurs comprend entre 0 et 1. Ensuite, on multiplie avec l'objet *~ ces valeurs (entre 0 et 1) et notre son, pour plus ou moins l'amplifier. Ainsi, quand la personne s'assoit, il y a un fade-in du son et quand elle se relève un fade-out.

De l'objet /127, on branch également un objet Val lui même branché au jitter (objet lié à la vidéo) de la vidéo, permettant de contrôler le fade in-out du son de la vidéo.

Ensuite, sur la branche le fichier vidéo au jitter pour pouvoir lire la vidéo.

Pour pouvoir faire le fade in-out de la vidéo, on branch un objet jit.brcosa à la suite du jitter ainsi qu'un attribut lighting lui même relié à l'objet /127. Ainsi la valeur de luminosité varie et permet donc le fade in-out de l'image.

Des attributs Loop sont branchés sur le lecteur son Sfplay et le lecteur vidéo jitter afin de faire tourner le son et la vidéo en boucle: c'est la valeur captée par le capteur qui va déterminer si le niveau sonore et la luminosité doit augmenter.

De base, quand le spectateur n'est pas assis, le capteur reçoit de la lumière: le niveau sonore et la luminosité sont à 0. Quand il s'assoit, le capteur ne reçoit plus de lumière: le son et la luminosité augmente en fade-in, avant que le spectateur ne se lève et enclenche le fade-out.

Conseillé: