Contact: Augmented Acoustics

Contact in its natural habitat.

(Does your world look better in English? l can help…scroll on down! Just remember to go back for pictures and videos.)

Mais uma semana, mais uma atualização! Depois do meu último post sobre o projeto Ototo e meu interesse em projetos de mídia digital no domínio do som, eu achei outras aplicações interessantes. Primeiro, eu me lembrei do projeto Makey Makey , a partir do qual o Ototo tem muito em comum. No entanto, o Makey Makey age como um dispositivo de input mais geral (em vez de ser especificamente uma entrada de teclado musical, como no Ototo) e prevê o uso de objetos do cotidiano como dispositivos de input para uma variedade de diferentes aplicações, não apenas as de música.

Em seguida eu busquei mais usos de sensores capacitivos, ou o uso de capacidade como uma entrada (tal como em touchscreens), o tempo todo olhando para possível implementação no som. O resultado foi que eu encontrei um projeto que combina microfones de contato, sensores capacitivos, interfaces de áudio, um projetor e uma série de programas de computador para transformar qualquer superfície dura em uma interface.

Let’s Make Contact.

CONTACT: Augmented Acoustics from Felix Faire on Vimeo.

O que é? O nome do projeto é Contact e está sendo desenvolvido por Felix Faire no Interactive Architecture Lab na Bartlett School of Architecture.

Contato é um projeto de pesquisa acústica utilizando microfones de contato e análise de sonar passiva e de forma de onda para receber e processar entradas de toque.

Ele pode identificar onde uma superfície foi atingida, identificar determinados movimentos de uma mão, a interação com os dedos, etc.

O som captado pelos microfones é digitalmente ressoado para gerar uma nota melódica baseada no impulso acústico de entrada.

Em seguida, os sons podem ser gravados, manipulados e reproduzidos com um pedal de loop.

O Contact também usa o Leap Motion Controller. para manipular ainda mais os sons de entrada. Vários gestos podem ser utilizados para modificar os sons depois de serem emitidos, evitando o contato com a superfície, o que poderia interferir com a entrada de som.

O projetor permite retorno visual a ser exibido na superfície, permitindo que o usuário visualize os impulsos e as vibrações de seu contato.

13 Contact Visual Animations

Por que é importante? O projeto é uma alternativa intrigante às interfaces de sensores capacitivos mais comuns e à entrada de teclado e mouse.

Uma vantagem importante da interface do Contact é em ser mais móvel e portátil, distinguindo-se das interfaces fixas. Ela pode possivelmente ser colocada em qualquer superfície dura, criando uma interface áudio-visual a qualquer momento.

O Contact também chamou a minha atenção com a sua implementação inovadora de entrada de som e manipulação musical, de forma eficaz visando o sentido do tato e o sentido de audição.

Finalmente, fiquei fascinado pelo projeto por ser (nas palavras de seu criador) uma exploração do potencial de contato físico e vibração acústica como um meio de interação em materiais tangíveis

Como isso funciona? O Contact usa microfones de contato – que usam o efeito piezoelétrico para transformar vibrações em sinais elétricos – e Arduino para localizar transientes de volume. Volumes entre sinais são comparados e mapeado para X e Y.

1 Contact Overview

Os microfones de contacto estão ligados a uma interface de audio para processar informações detalhadas sobre as frequências de vibrações em superfícies nos programas Ableton Live (software sequenciador de música e digital audio workstation) e Max/MSP (uma linguagem de programação visual para música e multimídia).

Um patch no Max é usado para disparar um impulso quando o sinal modificado excede um limite. Uma faixa de áudio envia este impulso para uma faixa midi como uma nota midi. Esta análise de áudio também permite a localização transitória (sabendo onde a superfície está sendo atingida).

2 Contact Schematic

Além disso, o patch no Max compara os sinais, os valores de distância relativa e envia para Processing via OSC para mapear à projeção (uma mensagem é enviada para Processing sobre OSC para ativar uma resposta visual através da imagem projetada).

Em suma, diferentes gestos feitos pelo usuário na superfície trazem respostas diferentes de áudio e visuais.

Há também um pedal ligado ao Processing através de um Arduino carregado com Firmata.

Finalmente, o controle de gestos pelo ar é ativado através do Leap Movement Controller, permitindo controle sem contato de efeitos de áudio.

Primeiro um gesto na superfície é transformado em um efeito de áudio. Então, em um preset particular, um gesto de três dedos pode controlar a frequência com que a nota é ressoada. Um gesto de cinco dedos pode controlar o tempo de decaimento (decay) do reverb.

Leap Motion Controller

Leap Motion Controller

9 Contact Leap Motion

10 Contact Leap Motion

Alguma modificação? Microfones de contato podem ser baratos e portáteis, mas eles são bem frágeis. Pode-se questionar a eficiência dos microfones em contato em um ambiente com dezenas de outras fontes de som (como eu fiz), mas microfones de contato são a solução perfeita para esse problema: eles são desejáveis ​​pela sua alta sensibilidade a vibrações de áudio através de objetos sólidos e insensibilidade à vibrações do ar.

No entanto, um fator-chave aqui é a sua necessidade de preamp (pré-amplificador), ou de aumentar o fraco sinal de entrada do microfone de contato e transmiti-lo a um amplificador principal. Um pré-amplificador separado é necessário para utilizar os microfones de contacto, enquanto ele não é necessário para alguns outros tipos (como microfones dinâmicos).

Além da questão de pré-amplificação, os uso de microfones de contato descarta a possibilidade de implementação de reconhecimento de voz no Contact. Talvez o reconhecimento de voz possa ser implementado (e ainda evitar a interferência de entradas de som indesejados no ambiente) usando um microfone dinâmico com uma padrão polar cardióide (directividade – cardioid polar pattern, efeito de proximidade) bem restrito (este artigo menciona essa manipulação potencial de microfones padrões polares).

 

Cardioid Polar Pattern

 

O Contact é portátil quando comparado à outras interfaces…mas será que é realmente portátil?

Em seu estado atual, o Contact utiliza dois microfones de contato, um Arduino, um projetor, uma interface de áudio, um pedal de loop, um computador com todo o software necessário, um Leap Motion controller, fones de ouvido, e todos os cabos necessários.

Ele pode ser usado em qualquer superfície plana, mas levando todos os componentes necessários para esse local e deixar tudo funcionando corretamente leva bastante tempo. Essas limitações são compreensíveis, e esse problema só pode ser reduzido enquanto a tecnologia melhora e algumas destas peças ficam menores e mais compactas.

Finalmente, eu gostaria de discutir os usos práticos do Contact. Em seu estado atual, ele usa as respostas de áudio e visual para gerar uma interface áudio-visual ao vivo, que funciona basicamente como um instrumento.

14 Contact Visual Animations

Eu proponho também ser utilizado para outras aplicações.

O processo de transitória local por áudio combinado com o projetor pode permitir que um teclado (ou outra forma de input) seja projetado sobre a superfície, e batidas, arranhões e outras ações de mão sejam reconhecidas, e a localização de cada contato identificado, permitindo que o usuário “tecle” no teclado projetado. Isto é diferente de outras aplicações existentes na medida em que depende de som e não de detecção óptica. Além disso, quando combinado com o controlador de gesto Leap Movement, isso permitiria que o controle fosse ainda mais profundo.

Outra aplicação para considerar é a projeção e o mapeamento do Contact em superfícies irregulares. Isto o tornaria ainda mais ubíquo pois ele poderia realmente ser mapeado à qualquer superfície (imóvel). Além disso, eu não sei ao certo se o Contact funciona tão bem em superfícies verticais .

Um cenário típico que eu imagino é usar o Contact em sua mesa de trabalho. Sua área de trabalho é projetada sobre a superfície plana de mesa, e você pode usar gestos com as mãos sobre a superfície para escolher documentos e programas, projetar um teclado para digitar ou usar gestos pré-definidos para ativar ações específicas.

Uma limitação perceptível nesse cenário é a ausência de movimentos como arrastar, scrolling, beliscar ou qualquer movimento que requer contato manual contínuo, o que não permitiria o controle do mouse. Com minha pesquisa, eu não consegui determinar se o Contact pode detectar as vibrações de áudio muito sutis que resultam desses movimentos, além de reconhecer as batidas muito mais altas.

15 Contact Visual Animations

Em um mundo ideal, o usuário seria capaz de controlar o Contact com gestos básicos de uma touchscreen, além de usar as entradas de áudio únicas da interface, mas por enquanto esse problema pode ser remediado usando o Leap Motion controller para estes gestos.

Bom, não é necessário dizer que eu estou muito animado com o potencial apresentado por projetos como o Contact, e estou ansioso para ver o seu desenvolvimento, o desenvolvimento de outras aplicações neste mundo, e, talvez, fazer algumas experiências da conta própria .

Obrigado por ler!

Referências:

http://www.creativeapplications.net/processing/contact-by-felix-faire-turns-any-hard-surface-into-an-interface/
https://www.soundonsound.com/sos/mar07/articles/micpatterns.htm
http://www.engadget.com/tag/piezoelectric/
http://lieveld.nl/post/77299202352/contact-augmented-acoustics-by-felix-faire

Making: CONTACT from Felix Faire on Vimeo.

_____________________ // _____________________

Another week, another update! Following my last post about the Ototo. project and my interest in digital media projects in the realm of sound, I ran into other interesting applications. First, I recalled the Makey Makey project, from which Ototo takes plenty of cues. However, Makey Makey acts as a more general input device (instead of specifically being a musical keyboard input, like Ototo) and envisions the use of everyday objects as input devices to a variety of different applications, not just music ones.

From there I looked for more uses of capacitive sensors, or the use of capacitance as an input (such as in touchscreens), all the while looking for possible implementation in sound. The result was that I found a project that combines contact microphones, capacitive sensors, audio interfaces, a projector and a host of computer software to turn any hard surface into an interface.

Let’s Make Contact.

What is it?The project is called Contact and is being developed by Felix Faire at the Interactive Architecture Lab at the Bartlett School of Architecture.

Contact is an acoustic research project utilizing contact microphones and passive sonar and waveform analysis to receive and process touch inputs.

It can identify where a surface has been hit, a hand’s particular movements, interaction with fingers, etc.
Sound picked up by the microphones is digitally resonated to generate a melodic note based on the input acoustic impulse.

Then, the sounds can be recorded, manipulated and played back with a loop pedal.

Contact also uses the Leap Motion Controller. to further manipulate the input sounds. Various hand gestures can be used to further modify sounds after they are emitted, while avoiding contact with the table, which would interfere with the sound input.

The projector allows for visual feedback to be displayed on the surface, allowing the user to visualize the impulses and vibrations from their inputs.

Why is it important? The project is an intriguing interface alternative to the usual capacitive-sensing interfaces and to the keyboard-and-mouse input. One significant advantage to the Contact interface is its portable, mobile nature, distinguishing itself from fixed interfaces. It can conceivably be placed on any hard surface, creating a live audio-visual interface at a moment’s notice.

It also got my attention with its innovative implementation of sound input and musical manipulation, effectively targeting the sense of touch and the sense of sound.

Finally, I was drawn to the project because it is (in the words of its creator) an exploration of the potential of physical contact and acoustic vibration as an interaction medium in tangible materials.

How does it work? Contact uses contact microphones – which use the piezoelectric effect to turn vibrations into electric signals – and Arduino to locate volume transients. Volumes between signals are compared and mapped to X&Y.

The contact mics are connected to an audio interface to process detailed frequency information of surface vibrations in Ableton Live (software music sequencer and digital audio workstation) and Max/MSP (a visual programming language for music and multimedia).

A Max patch is used to trigger an impulse when the modified signal exceeds a limit. An audio track sends this impulse to a midi track as a midi note. This audio analysis also allows for transient localization (knowing where the surface is being hit).

In addition, the Max patch compares the signals, relative distance values and sends it to Processing via OSC to map to the projection (a message is sent to processing over OSC to trigger a visual response through the projected image).

In short, different gestures made by the user on the surface trigger different audio and visual responses.

There is also a foot pedal connected to Processing through an Arduino uploaded with firmata.

Finally, air gesture control is enabled through the Leap Motion controller, allowing for contactless control of audio effects.

First a gesture on the surface is processed into an audio effect. Then, in a particular preset, a three-finger gesture can control the frequency that the note would be resonated at. A five-finger gesture can control the reverb decay time.

Any Modifications? Contact microphones might be cheap and portable, but they are fragile. One might question the efficiency of microphones in Contact in an environment with dozens of other sound sources (as I did), but contact microphones are the perfect solution to this problem: they are desirable for their high sensitivity to audio vibrations through solid objects and insensitivity to air vibrations.

However, a key factor here is their need for preamp, or boosting the weak input signal of the contact microphone and transmitting it to a main amplifier. A separate preamp is needed to use the contact microphones, whereas it is not required for some other types (like dynamic microphones).

Besides the preamp issue, contact microphones rule out the possibility of implementing voice recognition in Contact. Perhaps voice recognition could be implemented (while still avoiding interference from unwanted sound inputs in the environment) by using a dynamic microphone with a very narrow cardioid polar pattern. (this article mentions this potential manipulation of microphone polar patterns).

Contact is portable when compared to other interfaces…but is it really portable?

In its current state, Contact uses two contact mics, an Arduino, a projector, an audio interface, a loop pedal, a computer running all the necessary software, a Leap Motion controller, headphones, and all the required cables.

It can be used on any flat surface, but taking all the necessary components to that location and getting everything working properly is time-consuming.These limitations are understandable, and this problem might only be reduced as technology improves and some of these parts get smaller and more compact.

Finally, I’d like to discuss the practical uses of Contact. In its current state, it uses the audio and visual responses to generate a live audio-visual interface that functions as an instrument at its core.

I propose it also be used for other applications.

The audio transient location process combined with the projector might allow for a keyboard (or another input) to be projected on the surface, and taps, scrapes, and other hand actions will be recognized, and the location of each contact identified, allowing the user to “type” on the projected keyboard. This is different from other existing applications in that it relies on sound and not optical detection. Furthermore, when combined with the Leap Motion gesture controller, this would allow for even deeper control.

Another application to consider is projecting and mapping Contact on uneven surfaces. This would make it that more ubiquitous as it could truly be mapped to any (still) surface. In addition, I do not know for sure if Contact works just as well on upright surfaces.

One everyday scenario I envision is using Contact on your work desk. Your desktop is projected on the flat desk surface, and you can use hand gestures on the surface to choose documents and programs, project a keyboard to type, or use set gestures to trigger particular actions.

One limitation noticeable in this scenario is the absence of dragging, scrolling, pinching or any movement that requires continuous hand contact, which would not allow for mouse control. From my research, I was unable to determine if Contact can detect the very subtle audio vibrations that result from these movements, besides recognizing the much louder taps. In an ideal world, a user would be able to control Contact with basic touchscreen gestures, in addition to using the unique audio inputs, but at the moment this problem might be remedied by using the Leap Motion controller for these gestures.

Needless to say, I am very excited by the potential presented by projects like Contact, and I look forward to seeing its development, the development of other applications in this field, and perhaps doing some experimentation of my own.

Thanks for reading!

References:

http://www.creativeapplications.net/processing/contact-by-felix-faire-turns-any-hard-surface-into-an-interface/
https://www.soundonsound.com/sos/mar07/articles/micpatterns.htm
http://www.engadget.com/tag/piezoelectric/
http://lieveld.nl/post/77299202352/contact-augmented-acoustics-by-felix-faire

~Matt

Advertisements
Standard

Ototo: “Make Music from Anything”

The Ototo in its natural habitat.

(English more your style? You know the drill…scroll on down!)

Hey there! Eu queria lhe dar uma rápida atualização sobre o status deste blog. Recentemente eu estive fazendo uma pesquisa sobre projetos que apresentam uma correlação interessante entre design e a expansão dos sentidos. Depois de muita consideração eu decidi me concentrar em projetos que apresentam um foco especial no som, trabalhando com o sentido da audição, mas que não se limitam a esse sentido.

Eu tenho um profundo apreço pela música e vários tipos de sound design em si, e também sou um músico. É por estas razões que eu tive esse interesse em experimentos que utilizam o som para inovar.

Entre os muitos projetos que achei, o Ototo é o que mais despertou meu interesse e que mais provocou curiosidade em mim. Trazido à vida com sucesso pelo site de crowd-funding Kickstarter, o Ototo é mais bem resumido pelo seu slogan: “Make music from anything.” (Crie música a partir de qualquer coisa.) Ao conectar suas entradas de sensores à diferentes objetos,o Ototo permite transformar praticamente qualquer coisa em um instrumento.

A questão, como sempre, é a seguinte: como é que funciona?

O Ototo é sobre a interação de som. É essencialmente um sintetizador, com uma entrada de teclado de toque capacitivo de 12 teclas e uma variedade de diferentes sensores que podem ser ligados a quatro entradas de sensor. Tocar as chaves ativa sons diferentes, e conectando materiais condutores às teclas permite que você fazê-los reagir ao toque. Ligando um objeto à uma tecla específica permitirá que você acione a chave ao tocar o objeto.

O kit musical vem com quatro entradas de sensores que controlam diferentes características de som: um para o tom (altura), um para o volume, e dois para a textura do som (timbre – o recurso idiossincrático do som). Isso abre amplo espaço para a experimentação com coisas como sensores de luz que controlam o tom, sensores que reagem ao ar e afetam o som, etc.

Under the Hood

Eu fui atraído pelo Ototo não só pela sua experimentação intrigante com o som, mas também porque torna mais fácil de aprender e experimentar com eletrônicos, controladores, instalações sonoras interativas e música com nenhuma programação ou nenhum computador necessário. Além disso, ele também funciona como um controlador MIDI conectado via USB regular, funcionando como um teclado para os típicos aplicativos de música.

Espero que você também ficou intrigado com este projeto fascinante! Durante as próximas semanas eu estarei me aprofundando no mundo do Ototo e vendo exatamente o que ele tem a oferecer. Eu quero melhorar o meu conhecimento da tecnologia por trás dele e também entender suas limitações e o espaço para crescimento. Uma coisa que já me chamou a atenção é seu limite de uma oitava – eu entendo que isso mantém o Ototo portátil e foi certamente decidido pela equipe do Ototo depois de muita pesquisa e deliberação, mas é algo a considerar.

Até a próxima vez eu convido você a assistir o vídeo de pitch do Ototo de seu Kickstarter.

~Matt

_____________________ // _____________________

Hey there! I’d quick to give a quick update on the status of this blog. Recently I’ve been doing research on projects that present an interesting correlation between design and the expansion of the senses. After much consideration, I decided to home in on projects that present a special focus on sound, working with the sense of hearing, but that are not limited to that one sense.

I have a deep appreciation for music and all kinds of sound design in itself and I am also a musician; it is for these reasons that I have gained such an interest in experiments that use sound to innovate.
Among the many projects I ran across, Ototo is the one that piqued my interest the most and sparked much curiosity in me. Successfully brought to life by the crowd-funding website Kickstarter, Ototo is best summed up by its de-facto slogan: Make music from anything.” By connecting its sensor inputs to different objects, Ototo allows you to turn virtually anything into an instrument.

The question, as always, is: how does it work?

Ototo is all about sound interaction. It is essentially a synthesizer, with a 12-key capacitive touch keyboard input and a variety of different sensors which can be connected to 4 sensor inputs. Touching the keys triggers different sounds, and connecting conductive materials to the keys allows you to make them react to touch.  Connecting an object to a specific key will allow you to trigger that key by touching the object.

The musical kit comes with four sensor inputs that control different characteristics of sound: one for pitch, one for loudness, and two for the texture of the sound (timbre – the idiosyncratic feature of the sound). This opens up room for experimentation with things like light sensors that control the pitch, sensors that react to breath and affect the sound, etc.

I was drawn to Ototo not only for its exciting experimentation with sound, but also because it makes it easy to learn about and experiment with electronics, controllers, interactive sound installations and music with no coding or computer required. Beyond that, it also doubles as a regular USB-connected MIDI controller, functioning as an input keyboard for typical music applications.

Rock out with your circuits out…and your cables…and your connectors…

Hopefully you too were intrigued by this fascinating project! During the next few weeks I will be delving deeper into the world of the Ototo and seeing exactly what it has to offer. I want to improve my understanding of the technology under its hood and also understand its limitations and room for growth. One thing that has already caught my attention is the one-octave limit – I understand it keeps the Ototo portable and was surely decided on by the Ototo team after much research and deliberation, but it is something to consider.

Until next time I invite you to watch the pitch video for Ototo on its original Kickstarter page.

~Matt

Plugged in. Literally.

Standard

Adaptive System Sensors

The Nest Learning Thermostat

(Prefer English? I’ve got you covered…scroll on down!)

Ouvimos falar de sensores o tempo todo, mas eu não acho que realmente compreendemos a enorme ubiquidade que eles possuem. Analise suas atividades diárias, e você verá  que sensores não estão muito longe. Eles podem ser encontrados nos trajetos para o trabalho (em muitos países, Near Field Communication – NFC – é usada para reconhecer cartões de pagamento em ônibus), ao usar interfaces touchscreen, eles nos permitem verificar a velocidade instantânea no velocímetro de um carro, usar microfones, ler temperaturas em termômetros…a lista continua. Sério, confira essa lista na Wikipedia para ter uma idéia.

Mas…o que é um sensor, exatamente?

Um sensor é essencialmente um conversor – é capaz de medir uma quantidade física de algum corpo, alguma substância, etc., e convertê-la em um sinal elétrico ou óptico. Um exemplo é um termômetro, onde a temperatura medida é convertida em uma expansão e contração do mercúrio dentro do tubo de vidro.

Um fator importante para os sensores é a sensibilidade. Essa é uma indicação de quanto as mudanças de saída do sensor mudam quando a quantidade de entrada muda; assim, os sensores que medem alterações precisas devem ter sensibilidades muito altas. O desafio aqui é em controlar o impacto que o sensor tem sobre o que ele mede. Na maioria dos casos, quanto menor o sensor, menor será o efeito que tem sobre o corpo medida, razão pela qual o interesse em sistemas microeletromecânicos (MEMS – Microelectromechanical  Systems), que permitem mais sensores a serem criados em uma escala microscópica com altas sensibilidades – apropriadamente chamado microsensors – tem aumentado.

Eu fiquei interessado em sensores que são usados ​​especificamente em sistemas adaptativos. Além  de converter entradas em saídas, esses sensores permitem que os dispositivos analisem e adaptam ao contexto. Este ótimo artigo que encontrei usa acelerômetros em dispositivos como smartphones como um exemplo destes sensores de sistemas adaptativos. Muitos aplicativos usam o acelerômetro para monitorar os movimentos do usuário, entendendo se eles estão andando ou correndo, e alimentando os dados em vários programas de fitness / saúde. O que me interessa sobre estes sensores em particular é o grande potencial que possuem para recolher uma riqueza de dados e usar isso para contextualizar a experiência do usuário, numa criação de um sistema adaptativo.

Um uso inovador desta tecnologia é o Nest Learning Thermostat. A maioria dos termostatos modernos contam com sensores bimetálicos mecânicos ou elétricos, termistores eletrônicos, ou outras tecnologias semelhantes para medir com precisão a temperatura. O Nest é o primeiro termostato que aprende. Utilizando sensores para criar um sistema adaptativo, o Nest é capaz de adaptar-se ao contexto de uso – a agenda e estilo de vida único do usuário.

Inside The Nest

Em vez de exigir que o usuário defina manualmente as horas de ligar e desligar e temperaturas determinadas (e prejudicar a eficiência energética), o Nest usa uma variedade de sensores e algoritmos para criar uma agenda de temperatura personalizada. Com base em seus ajustes durante os primeiros dias de uso, ele entende a melhor forma de economizar energia com base em suas necessidades de regulação de  temperatura. Com esta programação, ele também ajusta para quando ninguém está em casa, conservando energia, e ajustando a temperatura com antecedência antes de você voltar.

A primeira melhoria que eu teria sugerido era alguma forma de compatibilidade de software que permitisse rastreamento de desempenho das atividades do Nest; mas eu descobri que as mais recentes encarnações do Nest são conectados à Internet e fazem uma variedade de coisas com isso. Por exemplo, um Nest Account e o aplicativo mobile permitem que o usuário altere as temperaturas antes de chegar em casa e ver todos os dados que o Nest tem recolhido sobre sua casa, programação e uso de energia . Todos esses dados estão disponíveis no “Histórico de Energia ” do aplicativo com um resumo completo dos ajustes de temperatura e uso de energia.

The Nest’s data tracking

Se eu pudesse sugerir uma modificação para o Nest, seria de oferecer ao consumidor um guia melhor para o ajuste da temperatura e conservação de energia. Claro, os resumos de energia oferecem dados sobre tendências energéticas pessoais, mas a maioria das pessoas não sabem como configurar  as temperaturas eficientementes ou economizar energia. Isso é especialmente crucial durante a primeira semana de uso do Nest, quando ele “aprende” a programação do usuário. O Nest tenta ensinar ao usuário como e quando ser energeticamente eficiente, mas acho que ele precisa fazer um trabalho melhor de ensinar o usuário, especialmente para que eles possam diferenciar entre maximizar conforto e priorizar a eficiência energética.

The Nest adjusts to personal schedules.

Além disso, muitas casas contam com vários sistemas de regulação de temperatura independentes, como várias unidades de ar condicionado, tornando o Nest incompatível. Eu entendo que limitações tecnológicas existem, mas eu acho que deve ser compatível com unidades autônomas, como várias unidades de ar condicionado em um edifício. Se o Nest pudesse concebivelmente comunicar com cada unidade e medir tendências de temperatura e ajustes , poderia criar uma programação de temperatura para uma gama maior de casas.

_____________________ // _____________________

We hear about sensors all the time, but I don’t think we quite grasp the tremendous ubiquity they possess. Analyze your everyday activities, and you’ll see sensors aren’t very far behind. They can be found in morning commutes (in many countries, Near Field Communication – NFC – is used to scan payment cards when going by bus), when using touchscreen interfaces, they allow us to check instantaneous speed on a car’s speedometer, use microphones, read temperatures on thermometers…the list goes on. Seriously, check out this list on Wikipedia for a sampling.

But…what is a sensor, exactly?

A sensor is essentially a converter – it is able to measure a physical quantity of some body, substance, etc., and convert it into a electrical  or optical signal. One example is a thermometer, which translates measured temperature into the expansion and contraction of mercury in a glass tube.

One important factor in sensors is their sensitivity. This is an indication of how much the sensor’s output changes when the input quantity changes; as such, sensors that measure fine changes must have very high sensitivities. The challenge here is in controlling the impact the sensor has on what it measures. In most cases, the smaller the sensor, the smaller the effect it has on the measured body, which is why interest in Microelectromechanical  Systems (MEMS), which allows more sensors to be created on a microscopic scale with higher sensitivities- appropriately called microsensors – has increased. 

I was interested in sensors which are used specifically in adaptive systems. Beyond converting inputs into outputs, these sensors allow devices to analyze and adapt to context. This great article I found uses accelerometers on devices like smartphones as an example of these adaptive system sensors. Many applications use the accelerometer to track the user’s movements, sensing if they are walking or running, and feeding that data into various fitness/health programs. What interests me about these sensors in particular is the great potential they hold to take a wealth of data and use that to contextualize the user’s experience, creating an adaptive system.

One innovative use of this technology is with the Nest Learning Thermostat. Most modern thermostats rely on bimetallic mechanical or electrical sensors, electronic thermistors, or other similar technology to accurately measure temperature. The Nest is the first learning thermostat. Using sensors to create an aforementioned-adaptive system, the Nest is able to adapt to the context of use – the user’s unique schedule and lifestyle.

Instead of requiring the user to manually set on and off times for certain hours or temperatures (and eschewing energy-efficiency), the Nest uses a variety of sensors and algorithms to create a personalized temperature schedule. Based on your adjustments during the first days of use, it understands how best to save energy based on your temperature-regulation needs. With this schedule, it also adjusts to when no one is home, conserving energy, and adjusting the temperature in advance when you return.

The first improvement I would have suggested was some form of software compatibility that enabled performance-tracking of the Nest’s activities; but I discovered the more recent incarnations of the Nest are connected to the Internet and do a variety of things of it. For instance, the Nest Account and Mobile app allow the user to change temperatures before they come home and see all the data the Nest has collected on their home, schedule and energy use. All of this data is available in the application’s “Energy History” with a full summary of temperature adjustments and energy use.

If I could suggest one modification to the Nest, it would be to offer the consumer a better guide to temperature adjustment and energy conservation. Sure, the energy summaries offer data on personal energy trends, but most people do not know how to efficiently set temperatures or save energy. This is especially crucial during the Nest’s first week of use, when it is “learning” the user’s schedule. The Nest tries to teach the user how and when to be energy efficient, but I think it needs to do a better job of teaching the user, especially so they can differentiate between maximizing comfort and prioritizing energy efficiency.

Furthermore, many homes rely on multiple standalone temperature-regulating systems, like multiple air-conditioning units, rendering the Nest incompatible. I understand that technological limitations are in place, but I think it should be compatible with standalone units such as multiple AC units in a building. If it could conceivably communicate with each unit and track temperature trends and adjustments, it could create a temperature schedule for a broader range of homes.

~Matt

Let’s hope not.

Standard