Problemas bioéticos emergentes de la inteligencia artificial

Source: Artificial Intelligence on Medium

Problemas bioéticos emergentes de la inteligencia artificial

Jairo Andrés Villalba Gómez. Universidad Militar Nueva Granada, Colombia

Hoy traemos a este espacio, para la lectura y discusión este artículo de Jairo Andrés Villalba Gómez. Universidad Militar Nueva Granada, Colombia titulado “Problemas bioéticos emergentes de la inteligencia artificial”, publicado en Diversitas: Perspectivas en Psicología, vol. 12, núm. 1, 2016, pp. 137–147 Universidad Santo Tomás Bogotá, Colombia.

Resumen

El presente artículo de revisión, relaciona de forma analítica los conceptos entre bioética e inteligencia artificial, identificando los elementos técnicofilosóficos tales como: transhumanismo, inteligencia artificial y bioética de la tecnología; cuyo orden transdisciplinar, evoluciona en cuestionamientos científicos basados en la evolución de la tecnociencia del siglo XXI. Se identificarán los referentes conceptuales de la relación entre transhumanismo (H+) e inteligencia artificial (IA), su génesis, enfoques, fundamentos disciplinares, así como los elementos básicos que hacen posible la arquitectura en un sistema de inteligencia artificial, precisando así el ambiente prospectivo en el que se consolida una “era” basada en la “singularidad tecnológica”, para finalmente concluir en una descripción de algunos problemas ético-filosóficos que emergen en la evolución de la inteligencia artificial.

Palabras clave: transhumanismo, inteligencia artificial, singularidad tecnológica, ética de la tecnociencia, ética de la inteligencia artificial.

Destacamos, para iniciar el debate:

“ pues “un algoritmo destinado a reemplazar humanos o sus capacidades debe ser juzgado mediante funciones sociales” (p. 318).

En el campo de análisis de la bioética latinoamericana, Garrafa (2009) sugiere la necesidad de involucrar en la problemática bioética, una epistemología de mayores dimensiones descriptivas y normativas, para ello, plantea el ejercicio de una práctica de análisis basada en un escenario de 4P (prudencia, prevención, precaución y protección), “prudencia, con el desconocido; prevención de posibles daños; precaución frente al uso indiscriminado de nuevas tecnologías, y protección de los excluidos sociales, de los más frágiles y vulnerables” (p 84).”

Por último, preguntamos como el robot a Will Smith ante su cuestión ¿puede un robot convertir un lienzo en una bella obra maestra? … ¿usted puede? … con este video del Instituto Federal de Telecomunicaciones del Foro “ética de los sistemas y dispositivos inteligentes.”