Choques del Tesla Autopilot vinculados a la sobreconfianza en la visión computarizada, según WSJ
Tesla ha sido objeto de una gran cantidad de críticas por su tecnología semi-autónoma, Autopilot. Un nuevo informe del Wall Street Journal (WSJ) revela imágenes de varios accidentes que, según se informa, están vinculados al uso del sistema Autopilot. El informe concluye que la dependencia de los sensores y cámaras en lugar del lidar es una de las razones de estos problemas.
Investigación del WSJ
El Wall Street Journal publicó un video de aproximadamente 11 minutos que examina el sistema Autopilot de Tesla. Esta investigación, la segunda en una serie, sugiere que la causa de algunos accidentes es la sobreconfianza en la visión computarizada, una tecnología que enseña a las computadoras a comprender información basada en entradas digitales como videos.
Desde junio de 2021, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) ha exigido a los fabricantes de automóviles en EE.UU. que informen sobre todos los accidentes graves del mundo real que involucren sistemas de conducción automatizados de Nivel 2 o superior de la SAE. Según el WSJ, Tesla ha presentado más de 1000 informes de accidentes a la NHTSA desde 2016, aunque gran parte de esos datos están ocultos al público porque Tesla los considera propietarios.
Datos del Informe
El WSJ, al recopilar informes de varios estados y cruzarlos con los datos presentados por Tesla a la NHTSA, analizó 222 accidentes. De estos, 44 ocurrieron cuando un Tesla con Autopilot activado giró repentinamente, y otros 31 accidentes ocurrieron cuando el Autopilot no cedió o no se detuvo ante un obstáculo. Los accidentes donde el Tesla no se detuvo resultaron en las lesiones más graves o la muerte.
Problemas de Visión Computarizada
El informe del WSJ destaca que Tesla, a diferencia de otros fabricantes que usan visión computarizada por radar y lidar para detectar objetos, confía principalmente en la visión computarizada basada en cámaras, con radar como respaldo en algunos modelos. John Bernal, quien fue despedido de Tesla en 2022 por publicar videos de fallos del Autopilot, indicó al WSJ que ha encontrado que las cámaras en algunos modelos de Tesla no están calibradas correctamente. Esto puede llevar a problemas al identificar obstáculos, sugiriendo que la sobreconfianza de Tesla en las cámaras para controlar el Autopilot puede provocar accidentes.
El nombre “Autopilot” ha generado controversia, ya que puede llevar a algunos conductores a creer que el sistema es totalmente autónomo. Sin embargo, es esencial comprender las limitaciones de esta tecnología y usarla de manera adecuada para evitar accidentes. La investigación del WSJ subraya la necesidad de una mayor transparencia y posibles mejoras en los sistemas de asistencia a la conducción para garantizar la seguridad en las carreteras.
Noticias
Automóviles
Tesla