Una telecamera particolare puntata, a distanza, su un pacchetto di patatine; due persone dialogano nelle sue vicinanze. Le onde sonore provocano impercettibili, apparentemente, vibrazioni sulla superficie del pacchetto di patatine. Un algoritmo traduce queste vibrazioni, riprese dalla telecamera, in suoni, ricostruendo l’intero dialogo. Senza bisogno di microfoni e da lontano.
Scenari quasi apocalittici per i privacy&security-fanatici.
Extracting audio from visual information: algorithm recovers speech from the vibrations of a potato-chip bag filmed through soundproof glass.
Researchers at MIT, Microsoft, and Adobe have developed an algorithm that can reconstruct an audio signal by analyzing minute vibrations of objects depicted in video. In one set of experiments, they were able to recover intelligible speech from the vibrations of a potato-chip bag photographed from 15 feet away through soundproof glass.
Scopri di più da Luca Bonesini
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.