Meta exhibió una herramienta de IA capaz de vincular diferentes datos sensoriales

Meta

Una herramienta de inteligencia artificial (IA) dirigida a investigadores que es capaz de relacionar seis fuentes de datos sensoriales: imágenes y vídeo, audio, texto, profundidad, temperatura y movimiento, fue presentada este martes por Meta, la tecnológica estadounidense .

De esta manera, Meta explicó en un comunicado que esta novedosa herramienta de código abierto, ImageBind, posibilitará que las máquinas puedan analizar simultáneamente esas diversas informaciones, algo que describió como un “entendimiento holístico” que se aproxima a las capacidades humanas.

Según la empresa, las máquinas equipadas con esta IA, podrán “unir” los datos sensoriales y, por ejemplo, vincular los objetos de una fotografía con su sonido, su forma en tres dimensiones o su movimiento; o bien elaborar imágenes basándose en ruidos.

Asimismo, Meta propuso que en el futuro la herramienta podría incluir nuevas modalidades de datos sensoriales, como “tacto, discurso, olor” e imágenes por resonancia magnética cerebrales.

Por consiguiente, a medida que esas modalidades se incrementen, expuso la empresa, ImageBind “abrirá las compuertas” de la investigación para “diseñar o experimentar mundos inmersivos y virtuales”, en una clara alusión al metaverso, que es su proyecto a largo plazo.