ru24.pro
Eldiario.es
Октябрь
2025
1 2 3 4 5 6 7 8 9 10 11 12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

El Autopilot de Tesla lleva a los coches hacia las vías del tren y piden ponerle solución de forma inmediata: "Puede provocar colisiones catastróficas"

0

¿Puede la conducción autónoma de Tesla recorrer Estados Unidos sin intervención humana? El último accidente en carretera vuelve a ponerlo en duda

Los sistemas de asistencia a la conducción avanzada se presentan como el futuro del transporte, pero la realidad muestra un conjunto de limitaciones que plantea riesgos serios cuando se confía en ellos más de lo que permite su diseño. Tesla promociona su Autopilot y el paquete Full Self-Driving como tecnología capaz de gestionar trayectos completos bajo supervisión humana, aunque su comportamiento en entornos reales evidencia fallos que van más allá de un simple error puntual.

La aparente autonomía del sistema genera confusión sobre sus capacidades reales y ha provocado que muchos conductores lo utilicen con exceso de confianza. El resultado se traduce en accidentes, investigaciones oficiales y una creciente preocupación sobre el modo en que la empresa describe sus funciones, una preocupación que deriva de los repetidos incidentes en los pasos a nivel.

Un error repetido que expone los límites del software de conducción automática

Según publicó NBC News, varios conductores de Tesla informaron de comportamientos peligrosos del software de conducción automática cerca de las vías del tren. Los vehículos avanzaban sin detenerse frente a barreras descendiendo o luces parpadeando. La mayoría de los usuarios consiguió frenar manualmente, aunque algunos coches terminaron demasiado cerca de trenes en movimiento. La agencia federal estadounidense NHTSA confirmó a ese medio que mantiene comunicación con la compañía para examinar el problema.

El conductor Italo Frigoli, residente en Texas, mostró ante periodistas de NBC News cómo su vehículo repitió el mismo fallo que semanas antes lo había obligado a frenar con fuerza ante un tren que se aproximaba. En ambos casos, el software Full Self-Driving no identificó la presencia de la locomotora ni reaccionó ante las señales luminosas del paso. En redes sociales circulan vídeos con errores similares: coches que arrancan justo cuando bajan las barreras y quedan a centímetros del convoy.

El ingeniero Phil Koopman, profesor emérito de la Universidad Carnegie Mellon, explicó a NBC News que un sistema con dificultades para detenerse ante un cruce ferroviario constituye una amenaza latente. Su análisis apunta a una posible carencia de imágenes de entrenamiento en ese tipo de entornos, lo que limitaría la capacidad del programa para reconocer correctamente los elementos visuales y sonoros de la señalización ferroviaria.

Otros testimonios recogidos por NBC News y The Independent confirman el patrón. Conductores en distintas zonas del país relataron maniobras bruscas o detenciones sobre las vías. En foros de internet y vídeos compartidos se acumulan ejemplos donde el coche avanza pese a luces rojas o se queda bloqueado entre las barreras.

En un caso ocurrido en julio, una familia abandonó su vehículo cuando quedó inmovilizado en las vías y un tren de mercancías rozó el lateral. Solo se dañó un espejo, pero el episodio mostró el margen mínimo de reacción que ofrece el sistema.

La reacción institucional contrasta con el silencio de la compañía

Ante la reiteración de incidentes, la NHTSA declaró que evalúa las quejas de los propietarios y tiene una actitud vigilante sobre el fabricante. El organismo recordó que sus procesos se basan en datos y que las investigaciones priorizan la seguridad pública. De manera paralela, Tesla evita ofrecer explicaciones detalladas sobre las causas y recalca que el conductor debe supervisar constantemente la conducción, tal como figura en su página web oficial.

El contraste con Waymo, la filial de conducción automatizada de Alphabet, es evidente. La investigación de NBC News no halló reportes de vehículos de esa empresa involucrados en fallos similares. Un portavoz de Waymo indicó que la compañía utiliza receptores acústicos para detectar trenes y recrea cruces ferroviarios en sus centros de prueba. La comparación plantea dudas sobre la preparación del sistema de Tesla para escenarios variables.

Las promesas de Musk se enfrentan a los datos y a las sentencias judiciales

El nivel de autonomía del Full Self-Driving continúa siendo limitado. En la clasificación de la Sociedad de Ingenieros del Automóvil, el software se ubica en el nivel 2, lo que exige que el conductor al volante esté atento. Sin embargo, la denominación comercial sugiere un control total, algo que llevó al Departamento de Vehículos Motorizados de California a demandar a Tesla por publicidad engañosa. A finales del año pasado, la empresa cambió el nombre a Full Self-Driving (Supervised) para precisar que requiere atención continua.

Elon Musk mantiene un discurso ambicioso sobre la inminencia del coche autónomo completo. Ha prometido cada año que la meta está al alcance, al tiempo que difunde mensajes en redes sociales afirmando que los Tesla ya pueden conducirse solos.

Estas declaraciones difieren con las cifras de accidentes registradas y con las condenas judiciales, como la que obligó a la empresa a pagar 329 millones de dólares por un atropello mortal en el que un coche con Autopilot atravesó un cruce a alta velocidad.

La confianza ciega en la automatización sigue mostrando sus límites. Cuando los trenes se convierten en el último freno de los Tesla, queda claro que el problema no está en la vía, sino en la tecnología que los guía.