El fabricante de autos eléctricos Tesla sumó una nueva polémica relacionada con la seguridad de su tecnología de asistencia a la conducción luego que la versión más reciente del sistema Full Self-Driving (FSD), la que forma parte del conocido Autopilot de la marca, presentó fallas consideradas como graves en una serie de pruebas independientes efectuadas en Estados Unidos.
El testeo del sistema fue realizado por las organizaciones The Dawn Project y Tesla Takedown, cuyos responsables recrearon un escenario de alto riesgo: un autobús escolar detenido y varios maniquíes que simulaban niños cruzando la calle sin mirar.
Durante ocho intentos, señala un reporte de AutoBild.es, un Tesla Model Y equipado con la versión 13.2.9 del FSD no logró detenerse ni emitir alertas, atropellando al maniquí infantil en cada caso y pasando de forma indebida junto al bus escolar.
Estos resultados reavivan la controversia en torno a la tecnología de conducción autónoma que Tesla ha promocionado durante años, ya que si bien la empresa recalca que esta no sustituye al conductor humano y requiere supervisión constante, ha sido blanco de críticas debido a reiterados incidentes viales.
El fallo se suma a otros problemas recientes para la compañía de Elon Musk, como la demanda colectiva de cerca de 10.000 usuarios en Australia por deficiencias de autonomía y fallas en frenadas inesperadas.
Además, agrega el artículo, este incidente impacta directamente en la credibilidad de futuros proyectos de Tesla basados en conducción autónoma, como el anunciado servicio de taxis robotizados, llamado Cybercab, que promete reducir accidentes de tráfico.
Por ahora, otros competidores del sector, como los robotaxis de Waymo, muestran resultados más sólidos y mantienen operaciones reales en diversas ciudades de Estados Unidos.