• Telesur Señal en Vivo
  • Telesur Solo Audio
  • facebook
  • twitter
Una investigadora del centro afirmó que la inteligencia artificial podría acarrear riesgos para la humanidad.

Una investigadora del centro afirmó que la inteligencia artificial podría acarrear riesgos para la humanidad. | Foto: EFE

Publicado 19 octubre 2016



Blogs


La Fundación Leverhulme invirtió 12 millones de dólares en el proyecto Leverhulme para el futuro de la inteligencia, el cual busca profundizar en el uso de las armas autónomas para la democracia. 

El astrofísico británico Stephen Hawking inauguró este miércoles un centro destinado a la investigación de la inteligencia artificial cuyo objetivo es analizar a fondo las aplicaciones de la misma, dijo el científico en la universidad inglesa de Cambridge.

El Centro Leverhulme para el futuro de la inteligencia (CFI, por su sigla en inglés) es fruto de la colaboración entre varias universidades del Reino Unido y Estados Unidos. El CFI goza de una beca de 10 millones de libras (12,2 millones de dólares) otorgada por la Fundación Leverhulme.

"Stephen Hawking dijo que la inteligencia artificial podría ser el mayor desastre de la humanidad".

El CFI analizará las consecuencias del rápido desarrollo de máquinas inteligentes, como androides y automóviles inteligentes porque a pesar de crearse para facilitar la vida cotidiana pueden presentar dilemas éticos y riesgos para las sociedades.

"Las aplicaciones prácticas de la inteligencia artificial tienen sus limitaciones y plantean graves peligros si se hace un mal uso de las mismas", advirtió la investigadora Margaret Boden durante la inauguración este miércoles.

Fuente: EFE

El director académico del centro, Huw Price, dijo que la creación de androides es un hito en la humanidad y el CFI intentará que "el futuro sea lo mejor posible" pues existe un temor relacionado con la suplantación de la inteligencia humana por la inteligencia artificial.

En una primera fase investigadora, el nuevo centro abordará varios proyectos que incluirán la regulación de armas autónomas, innovación responsable, transparencia en algoritmos y un análisis de las consecuencias de la inteligencia artificial para la democracia.


Comentarios
0
Comentarios
Nota sin comentarios.