Buscador

Últimas Noticias

Desde la redacción del Multimedio TDC

Cetrogar-enero-2018-b
cec
lentini amoblamientos
lequipe-la-falda
Rosen Color
colormax
Previous Next Play Pause
1 2 3 4 5 6
0
0
0
s2sdefault

La inteligencia artificial es la nueva salsa que aliña toda la ensalada tecnológica que se cocina

La inteligencia artificial es la nueva salsa que aliña toda la ensalada tecnológica que se cocina estos días. Desde complejos sistemas neuronales que predicen enfermedades como el cáncer, a móviles que aprenden del itinerario al trabajo que todos los días realizan sus dueños, su presencia aumenta de la misma forma que aumentan sus capacidades: de forma exponencial. Sin embargo, muchas voces se han levantado para alertar sobre las posibles consecuencias de que las máquinas empiecen a pensar por sí mismas. Más allá de las teorías más catastrofistas, en las que sobresale la de que los robots acabarían gobernando a la raza humana (hecho que temen personalidades de la talla de Elon Musk, aunque pueda parecer un broma), muchos apuntan a los peligros que podría suponer estas redes neuronales de autoaprendizaje si se utilizaran de forma equivocada. Y para probar este punto, investigadores del Instituto Tecnológico de Massachusetts (MIT) entrenaron a una inteligencia artificial con los contenidos menos recomendables de toda la red: los de los foros. En concreto, con la información disponible en los más oscuros recodos de Reddit, esa web de la que surgieron escándalos como la filtración de cientos de fotografías comprometidas de actrices de Hollywood o donde proliferaron las «fake news» que ayudar a llegar a Donald Trump a la Presidencia de los Estados Unidos. Los científicos utilizaron subcategorías que englobaban crímenes, imagenes violentas o contenido perturbador para crear a Norman. Imágenes sórdidas y trastorno alucinatorio Bautizado en honor a Norman Bates, el asesino de «Psicosis», esta red neuronal fue sometida a diferentes pruebas psicológicas después de haber sido entrenada en los rincones más sórdidos de Reddit. Las pruebas demostraron que se acercaba a rasgos patológicos humanos, como el trastorno alucinatorio crónico, por lo que sus creadores lo definen como «la primera inteligencia artificial psicópata». Como antagonista de Norman, los científicos entrenaron a otra inteligencia artificial con imágenes de naturaleza y personas (no muertas). A las dos se las sometió al famoso test de Rorschach, la prueba de las manchas de tinta que sirve para evaluar el estado de ánimo de un paciente. Los resultados fueron aterredarores: donde la inteligencia artificial «buena» veía un par de personas, Norman reconocía a un hombre saltando por una ventana. O donde la tecnología bien entrenada pensaba que había pájaros, Norman percibía un ser humano electrocutado. Los objetivos del experimento Pero su nacimiento no responde a una inquietud de ocio de la comunidad científica, sino que busca conocer los peligros de esta tecnología cuando su uso no atiende a buenas razones. «Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning», han explicado sus creadores. En concreto, este experimento demuestra que los datos que se introduzcan son más importantes que el algoritmo, ya que serán la base para que la red neuronal artificial entienda el mundo. Por eso, la información defectuosa o sesgada para este tipo de sistemas pueden afectar de forma importante en el resultado. Y esto es un peligro muy a tener en cuenta en la nueva era del «machine learning».
transporte la hormiguita
lumasa diferencial
falu-accesorios-abril-2018
agua mineral villa giardino
ASEHOGAP
400
Uthgra
Previous Next Play Pause
1 2 3 4 5 6 7
0
0
0
s2sdefault