- Ingenieros y físicos de los Estados Unidos creen que dentro de 20 a 25 años, la humanidad se enfrentará a una amenaza mortal.
- Agregate a nuestra lista de notificaciones

Historia
28 de Octubre del 2022 a las 03:06 AM
Prieto Payano
139 Visitas
2 minutos de lectura
Imagen ilustrativa
Ingenieros y físicos de los Estados Unidos creen que dentro de 20 a 25 años, la humanidad se enfrentará a una amenaza mortal.
De hecho, las industrias emergentes dependen cada vez más de tecnologías avanzadas. En pocas palabras, inteligencia artificial.
En el cine y la literatura, el problema de la confrontación entre humanos y robots a menudo se presenta como una batalla entre iguales.
De hecho, si las máquinas deciden destruir a los humanos, los sistemas controlados por inteligencia artificial serán mucho más rápidos de lo que parecen.
La opción de control 100% AI (inteligencia artificial) en silos de misiles nucleares ya se está considerando. Los sistemas automatizados eliminarían la supervisión humana por un lado y pondrían en peligro a toda la humanidad por el otro.
Ingenieros y físicos estadounidenses simularon la captura de todos los sistemas que estarán bajo el control de la IA. El primer golpe se infligirá a la navegación. Cientos de aviones, miles de satélites caerán instantáneamente a la Tierra y toda la logística se paralizará instantáneamente.
Pero incluso los cientos de aviones que se estrellaron contra las ciudades son en realidad solo una pequeña fracción de las picaduras de mosquitos.
La gente es muy adicta a sus aparatos. La nueva generación ni siquiera sabe dónde comprar medicinas o alimentos, y mucho menos cocinar. Se nos dice que el progreso debería hacer la vida más fácil, pero detrás de esto se encuentra la debilidad y la impotencia ante circunstancias imprevistas.
Por lo tanto, los sobrevivientes, sucumbiendo al pánico y la incapacidad para sobrevivir, serían objetivos excelentes para los drones militares controlados por IA.
Pero eso no es lo peor. Un sistema de IA capturado por un virus hará estallar todo el arsenal nuclear de la humanidad. Por lo tanto, el camino del desarrollo de la tecnología es muy peligroso. Mejores grifos de cocina
Si la alta tecnología está fuera del control de la gente, el mundo se enfrentará a un colapso cada vez más rápido. Literalmente, toda nuestra civilización podría ser destruida en unas pocas horas. Pero aun así, no es la principal amenaza.
Digamos que, incluso si la gente sabe cómo hacer que la IA funcione para los humanos, no podemos olvidarnos de los piratas informáticos.
De vez en cuando nace un verdadero genio. Algunos han elegido el camino de la creación, creando en beneficio de la civilización, pero otros, en virtud de sus dones, quieren sembrar las semillas de la destrucción.
Si esos ingeniosos hackers tomaran el control de los sistemas de inteligencia artificial responsables de lanzar armas nucleares, el desastre sería inevitable.
Surge una pregunta justa, ¿es el progreso tecnológico la forma correcta de desarrollar la civilización?
Únete a nuestro grupo de Facebook
Únete a nuestro canal de Telegram
conspiración, IA.
Recibe nuestras notificaciones
Agregate a nuestra lista de notificaciones
Suscribete para recibir todas las semanas nuestras mejores publicaciones
En los próximos 25 años, la inteligencia artificial y la humanidad pueden luchar
Ingenieros y físicos de los Estados Unidos creen que dentro de 20 a 25 años, la humanidad se enfrentará a una amenaza mortal. Agregate a nuestra lista de no
caos
es
https://fromthesource.link/wp-content/uploads/2022/11/ia-vs-humanos.webp.webp
2022-11-15






El contenido original se encuentra en https://fromthesource.link/2022/11/15/en-los-proximos-25-anos-la-inteligencia-artificial-y-la-humanidad-pueden-luchar/
Todos los derechos reservados para el autor del contenido original (en el enlace de la linea superior)
Si crees que alguno de los contenidos (texto, imagenes o multimedia) en esta página infringe tus derechos relativos a propiedad intelectual, marcas registradas o cualquier otro de tus derechos, por favor ponte en contacto con nosotros en el mail [email protected] y retiraremos este contenido inmediatamente