El aprendizaje automático (que los ordenadores aprendan nuevas habilidades mediante la búsqueda de patrones en los datos de entrenamiento) es la base de la mayoría de los avances recientes en materia de inteligencia artificial, desde los sistemas de reconocimiento de voz hasta los coches que se auto-estacionan. Es también la técnica que los robots autónomos suelen utilizar para construir modelos de sus entornos.
Ese tipo de construcción de modelos se complica, sin embargo, en los casos en que grupos de robots trabajan en equipo: pueden haber reunido información que, colectivamente, genere un buen modelo… pero que individualmente resulte inútil. Pero, ¿cómo pueden construir los robots un modelo colectivo en aquellos casos en que las restricciones computacionales/energéticas/de comunicación impiden que pongan en común sus datos? Unos investigadores del Laboratorio de Sistemas de Información y Decisión del MIT tratarán de responder a esa pregunta el mes que viene, en el marco de la conferencia “La Incertidumbre en la Inteligencia Artificial”.
Presentarán un algoritmo en el cual agentes distribuidos (como, por ejemplo, unos robots que exploran un edificio) pueden recoger datos y analizarlos de forma independiente. A continuación, una par de dichos agentes (como dos robots que se cruzan en un pasillo) puede intercambiar los resultados de sus análisis. En experimentos con varios conjuntos de datos diferentes, este ‘algoritmo distribuido’ siempre superaba al sistema estándar basado en agregar los datos en un único punto: “Si las porciones más pequeñas de información se procesan primero por parte de los robots individuales, y sólo posteriormente se combinan, se reducen las probabilidades de que el modelo final se atasque en una mala solución”, aclara Trevor Campbell, estudiante de posgrado de aeronáutica y astronáutica del MIT y escritor (junto a su tutor Jonathan How) del informe en el que se presenta el algoritmo.
Campbell explica que la investigación estuvo motivada por su interés sobre la colaboración entre robots, pero que también puede tener implicaciones relevantes en materia de Big Data, al permitir a los servidores distribuidos combinar los resultados de sus análisis de datos sin necesidad de agregar éstos en una ubicación central: “Este procedimiento es completamente sólido en casi cualquier red que podamos imaginar. Es un gran medida un algoritmo de aprendizaje flexible para redes descentralizadas”.
También se ha manifestado al respecto el vicerrector de investigación de la Universidad de Duke: “El método variacional distribuido que propone este trabajo es computacionalmente eficiente y práctico. [...]. La computación distribuida jugará un papel crítico en el despliegue de múltiples vehículos terrestres y aéreos autónomos“.
Fuente: ticbeat.com
No hay comentarios:
Publicar un comentario