NVIDIA ahora le da sentido común a la tecnología de coches autónomos

NVIDIA ha anunciado el lanzamiento de nuevas herramientas basadas en Inteligencia Artificial (IA) para diversos fines, como la conducción autónoma, que incluye la tecnología NVIDIA DRIVE Alpamayo-R1, descrito como el primer modelo de razonamiento, visión, lenguaje y acción de código abierto para la movilidad.


La compañía aprovechó la realización de la conferencia NeurIPS para presentar modelos y herramientas de IA física abierta para apoyar la investigación del ramo.


NVIDIA DRIVE Alpamayo-R1 (AR1) integra el razonamiento de IA en el proceso de pensamiento para la planeación de rutas, un componente fundamental para mejorar la seguridad de los vehículos autónomos en carreteras complejas y permitir el desarrollo de la autonomía de Nivel 4.


En pocas palabras, esta tecnología desglosa un escenario e interpreta un razonamiento, por lo que le proporciona a los coches autónomos una especie de sentido común para conducir de una forma más similar a la de los humanos, especialmente en escenarios muy particulares.


NVIDIA ejemplifica el uso del razonamiento con un vehículo autónomo que circula por una zona con gran cantidad de peatones a lo largo de una ciclovía. Ahí puede tomar datos de su recorrido, incorporando trazos de razonamiento (explicaciones de por qué realizó determinadas acciones) y usando la información para planear su trayectoria futura, que por ejemplo lo mantenga alejado de la ciclovía o se detenga ante posibles peatones imprudentes.


La base abierta de AR1, basada en NVIDIA Cosmos Reason, permite a los investigadores personalizar el modelo para casos de uso no comerciales, ya sea para la evaluación comparativa o para el desarrollo de aplicaciones experimentales de vehículos autónomos.


Tras el entrenamiento, el aprendizaje por refuerzo ha demostrado ser especialmente eficaz: los investigadores observaron una mejora significativa en la capacidad de razonamiento con AR1 en comparación con el modelo preentrenado.


NVIDIA DRIVE Alpamayo-R1 estará disponible en las plataformas GitHub y Hugging Face, mientras que un subconjunto de los datos utilizados para entrenar y evaluar el modelo está disponible en los conjuntos de datos abiertos de IA física de NVIDIA.


También ha lanzado el framework de código abierto AlpaSim para evaluar AR1.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *