El Autopilot FSD de Tesla Escapa de Demandas Colectivas por Publicidad Engañosa

Veredicto Legal: El Autopilot FSD de Tesla Escapa de Demandas Colectivas por Publicidad Engañosa

En una reciente decisión legal, un juez de distrito en Oakland, California, ha resuelto que los propietarios de Tesla que presentaron una propuesta de demanda colectiva por publicidad engañosa relacionada con el Autopilot FSD (Full Self-Driving) deberán llevar a cabo reclamaciones individuales en lugar de enfrentar a la compañía en un tribunal. Esta decisión representa una victoria para Tesla y pone fin a la posibilidad de demandas colectivas en relación con esta tecnología que, después de siete años, aún no ha logrado proporcionar la conducción autónoma total prometida.

Promesas y Realidades del Autopilot FSD:

En octubre de 2016, Elon Musk, durante la presentación del Autopilot FSD, anunció que sería un sistema de nivel 5, el nivel más alto en la categorización de tecnologías de conducción automatizada. Aunque reconoció que llevaría tiempo desarrollarlo debido a la validación del software y la homologación, afirmó que se convertiría en una realidad. Sin embargo, a lo largo de estos siete años, el FSD ha permanecido en el nivel 2, lo que significa que los conductores deben mantener su atención en la carretera y las manos en el volante en todo momento.

El Autopilot FSD de Tesla Escapa de Demandas Colectivas por Publicidad Engañosa

Acusaciones de los Demandantes

Los demandantes argumentaron que Tesla repetidamente afirmó que el Autopilot FSD ofrecía una conducción autónoma total, lo cual era el nombre del sistema, y que pagaron miles de dólares por esta tecnología que no cumplió con las promesas. Además, señalaron que el sistema no solo no cumplió, sino que también demostró ser poco confiable y estuvo involucrado en accidentes, lesiones e incluso fatalidades. Desde 2016, la Administración Nacional de Seguridad en el Transporte por Carretera (NHTSA) ha abierto más de tres docenas de investigaciones especiales sobre accidentes de Tesla con el Autopilot FSD activado, y se han registrado 23 muertes relacionadas con estos incidentes.

La Defensa de Tesla:

Tesla ha negado su responsabilidad en los accidentes mortales relacionados con el FSD. Esta decisión judicial llega en un momento en que la compañía enfrenta su primer juicio por la muerte de un conductor que estaba utilizando el Autopilot FSD cuando chocó contra una palmera a 105 km/h, resultando en un incendio del automóvil. Tesla sostiene que el accidente se debió a un error del conductor y no a un problema con su tecnología, una defensa que la compañía ha utilizado en múltiples ocasiones, incluso en situaciones en las que su tecnología ha enfrentado críticas.

El Autopilot FSD de Tesla Escapa de Demandas Colectivas por Publicidad Engañosa

Actualizaciones Obligatorias y Preocupaciones de Seguridad:

A principios de 2023, el Autopilot FSD de Tesla fue objeto de una llamada a revisión en los Estados Unidos. La NHTSA determinó que más de 360,000 vehículos debían actualizar el software del FSD debido a preocupaciones de seguridad vial y la posibilidad de que pudiera causar accidentes. Esta llamada a revisión resalta las preocupaciones persistentes sobre la seguridad y la eficacia del Autopilot FSD de Tesla.

El veredicto legal que requiere que los propietarios presenten reclamaciones individuales representa un giro en la saga del Autopilot FSD de Tesla. A pesar de las acusaciones de publicidad engañosa y las preocupaciones de seguridad, la tecnología de conducción autónoma de la compañía continúa generando controversia y desafíos legales a medida que avanza hacia el futuro.