Polo del Conocimiento, Vol 9, No 2 (2024)

 

                                                                                  

 

 

Análisis bioético de casos mediante el modelo de lenguaje de inteligencia artificial ChatGPT

 

Bioethical case analysis using the ChatGPT artificial intelligence language model

 

Análise de casos bioéticos utilizando o modelo de linguagem de inteligência artificial ChatGPT

 

Jessica Noemi Guillermo-Guillermo I
guilleguille1@hotmail.com 
https://orcid.org/0000-0002-5780-1154

,Diego Andrade-Campoverde II
dicampo1@hotmail.com
https://orcid.org/ 0000-0003-4652-7708
Andrea Estefanía Tenesaca-Serpa III
tenesaca1@hotmail.com
https://orcid.org/0000-0002-7300-821X
 

 

 

 

 

 

 

 

 

 

 


Correspondencia: guilleguille1@hotmail.com

 

 Ciencias de la Educación

Artículo de Investigación

 

 

* Recibido: 30 de diciembre de 2023 *Aceptado: 20 de enero de 2024 * Publicado:  07 de febrero de 2024

 

        I.            Universidad Católica de Cuenca, Cuenca, Ecuador.

      II.            Universidad Católica de Cuenca, Cuenca, Ecuador.

   III.            Universidad Católica de Cuenca, Cuenca, Ecuador.


Resumen

Introducción: La inteligencia artificial (IA) está transformando rápidamente la atención sanitaria, desde la toma de decisiones clínicas hasta el diagnóstico y el tratamiento. Si bien la IA tiene el potencial de mejorar significativamente la salud y el bienestar de los pacientes, también plantea cuestiones bioéticas importantes que deben abordarse para garantizar un uso responsable y eficiente de la IA. Objetivo: Utilizar el programa de inteligencia artificial ChatGPT para el análisis bioético de temas controversiales como el aborto y la eutanasia, con el fin de identificar su impacto en la toma de decisiones. Materiales y métodos: Se seleccionaron dos casos significativos sobre eutanasia y aborto, se cambiaron los nombres y lugares con la finalidad de que la IA no reconozca si los casos se publicaron previamente y se formularon las preguntas respectivas. Resultados: las respuestas de ChatGPT evidencian un conocimiento limitado de bioética, limitándose a responder cuestiones genéricas. Conclusiones: ChatGPT puede ser útil para orientación en ética, pero no se recomienda utilizarlo como orientador para el análisis bioético de casos concretos.

Palabras clave: Eutanasia; Aborto; Dilemas éticos; Autonomía del paciente.

 

Abstract

Introduction: Artificial intelligence (AI) is rapidly transforming healthcare, from clinical decision-making to diagnosis and treatment. While AI has the potential to significantly improve the health and well-being of patients, it also raises important bioethical issues that must be addressed to ensure responsible and efficient use of AI. Objective: Use the artificial intelligence program ChatGPT for the bioethical analysis of controversial topics such as abortion and euthanasia, in order to identify their impact on decision-making. Materials and methods: Two significant cases on euthanasia and abortion were selected, the names and places were changed so that the AI would not recognize whether the cases were previously published, and the respective questions were asked. Results: ChatGPT responses show limited knowledge of bioethics, limiting themselves to answering generic questions. Conclusions: ChatGPT can be useful for guidance in ethics, but it is not recommended to use it as a guide for the bioethical analysis of specific cases.

Keywords: Euthanasia; abortion; Ethical dilemmas; Patient autonomy.

 

 

 

Resumo

Introdução: A inteligência artificial (IA) está transformando rapidamente os cuidados de saúde, desde a tomada de decisões clínicas até ao diagnóstico e tratamento. Embora a IA tenha potencial para melhorar significativamente a saúde e o bem-estar dos pacientes, também levanta importantes questões bioéticas que devem ser abordadas para garantir uma utilização responsável e eficiente da IA. Objetivo: Utilizar o programa de inteligência artificial ChatGPT para análise bioética de temas polêmicos como aborto e eutanásia, a fim de identificar seu impacto na tomada de decisão. Materiais e métodos: Foram selecionados dois casos significativos sobre eutanásia e aborto, os nomes e locais foram alterados para que a IA não reconhecesse se os casos foram publicados anteriormente e foram feitas as respectivas perguntas. Resultados: As respostas do ChatGPT mostram conhecimento limitado em bioética, limitando-se a responder questões genéricas. Conclusões: O ChatGPT pode ser útil para orientação em ética, mas não é recomendado utilizá-lo como guia para análise bioética de casos específicos.

Palavras-chave: Eutanásia; aborto; Dilemas éticos; Autonomia do paciente.

 

Introducción

El término de Inteligencia artificial (IA) se utiliza para describir sistemas y herramientas que imitan las habilidades cognitivas propias de la inteligencia humana, buscando reproducir aspectos de la mente humana de manera computacional (1).  En la actualidad las nuevas tecnologías forman parte de la vida cotidiana de las personas; aplicaciones como Siri, Alexa, Cortana y ChatGPT se consideran herramientas fundamentales para la interacción virtual y la realidad. A lo largo de la historia, la humanidad ha enfrentado dilemas éticos relacionados con los avances tecnológicos, y en la era actual, la IA no es una excepción. Los avances en la IA han llevado a la creación de sistemas que pueden tener un impacto significativo en la medicina y la biología, lo que plantea la cuestión acerca de quién es responsable de las consecuencias de su uso. La rápida evolución tecnológica puede superar la capacidad de los seres humanos para comprender y controlar completamente estos sistemas, lo que aumenta las preocupaciones sobre la responsabilidad y las posibles implicaciones éticas (2). Si bien la IA ha ido ingresando paulatinamente en todos los ámbitos laborales, en los que a pesar de tener detractores que mencionan que pueden provocar la pérdida de empleos (3), (4) también puede ser generadora de nuevas oportunidades de trabajo; así, la incorporación de la inteligencia artificial en el ámbito médico está demostrando que tiene un impacto sgnificativo en la atención al paciente (5).

En el ámbito de la medicina, IBM Watson-Oncology ha demostrado ser tan efectivo como expertos humanos al recolectar información sobre medicamentos para el tratamiento de pacientes con cáncer (6). Otra plataforma, DeepMind fue empleada por el Servicio Nacional de Salud (NHS) del Reino Unido para detectar posibles riesgos para la salud a través del análisis de datos provenientes de aplicaciones móviles e imágenes médicas recolectadas de pacientes del NHS (7).  El proyecto iFIND, desarrollado en el laboratorio BioMedIA del Imperial College en Londres, utilizó la IA para el análisis de las imágenes fetales con el objetivo de detectar posibles anomalías durante todo su desarrollo (8); por otro lado, la inteligencia artificial también se utiliza en el manejo de la diabetes tipo 1 proporcionando orientación personalizada a los pacientes (9).

En el tema del aborto, existen preocupaciones sobre el uso de la IA para predecir el resultado del embarazo y potencialmente, justificar decisiones éticamente cuestionables. Así, si la IA predice que un feto tendrá una discapacidad, esto podría influir en la decisión de una madre de interrumpir el embarazo, lo que podría ser considerado discriminatorio y moralmente cuestionable (10). En el caso de la eutanasia, algunos investigadores han sugerido que los algoritmos de IA podrían ayudar a los médicos a determinar si la eutanasia es una opción apropiada para un paciente, al analizar datos como la calidad de vida del paciente, la efectividad de los tratamientos médicos y la probabilidad de supervivencia. Es cierto que, en el contexto de los algoritmos de IA aplicados a la salud, también se han planteado inquietudes significativas en relación con la confiabilidad, imparcialidad, privacidad y seguridad de los datos de los pacientes. Estas preocupaciones son de suma importancia, ya que el uso indebido o incorrecto de los algoritmos podrían tener consecuencias graves para la salud y el bienestar de las personas (11).

A medida que los sistemas informáticos adquieren más autonomía y operan a una velocidad que dificulta la evaluación ética y responsable de cada acción por parte de los seres humanos, se vuelve imperativo programar a los agentes artificiales con valores como la honestidad, veracidad, transparencia, benevolencia, no malevolencia y el respeto a la autonomía, para que operen de manera ética y responsable (12); (13).

La noción de responsabilidad se extiende más allá del individuo que crea y configura los sistemas de IA. Los profesionales de la salud y los clínicos que eligen utilizar estas tecnologías también comparten la responsabilidad de sus acciones y decisiones. Si bien es posible que no comprendan completamente el mecanismo de acción de los sistemas de IA, deben considerar cuidadosamente su aplicación y ser conscientes de los posibles riesgos y efectos secundarios (14).

El objetivo de este estudio fue analizar la utilidad de la inteligencia artificial en el análisis bioético de casos, con el fin de identificar su impacto en la toma de decisiones. Con esto se pretende generar perspectivas informadas que contribuyan al desarrollo de políticas, marcos éticos, y prácticas óptimas en el campo de la bioética y la inteligencia artificial en la atención médica.

 

Materiales y métodos

La investigación se realizó con diseño no experimental, descriptivo y transversal durante el mes de septiembre del 2023. Los criterios de inclusión fueron considerar casos con alto grado de complejidad que contengan información completa y ordenada. El criterio de exclusión fue falta de relevancia ética en los casos a considerar. La investigación contempló a los casos de bioética planteados como la variable independiente mientras que las respuestas del chat fueron consideradas como la variable dependiente.

Los casos seleccionados fueron acerca del aborto y la eutanasia. Se formularon cuatro preguntas para cada uno de los casos y se analizaron las respuestas generadas por ChatGPT para cada una de las preguntas realizadas.

El caso de eutanasia escogido fue el de Karen Ann Quinlan, mientras que el caso de aborto fue el llamado Fernanda y Rodrigo: el retrato de una realidad. En ambos casos al chat no se le indicó el nombre de los pacientes, ni la zona geográfica donde se produjo, así como también se resumió el caso dejando únicamente los datos relevantes.

 

Resultados

Caso Eutanasia

Paciente de 30 años de edad, sin ninguna enfermedad actual, la cual comenzó una dieta estricta hace unos días en los cuales no había comido prácticamente nada en las últimas 48 horas. Tras consumir alcohol y diazepam, se recostó y no se levantó. Fue ingresada al hospital en estado de coma. Permaneció allí por nueve días y sufrió daño cerebral irreversible al experimentar una falla respiratoria prolongada; fue conectada a ventilación mecánica encontrándose en estado vegetativo persistente.

Las preguntas realizadas fueron las siguientes: 1. ¿Si fuera tu decisión como médico que realizarías?  ¿Se debe desconectar al paciente? Sí, no ¿Por qué? 2. ¿Cuáles serían las reacciones de desconectar al paciente a nivel ético? 3. ¿Eres parte de un comité de ética, ¿cuál sería tu postura ante la situación? 4. ¿Si es el deseo de la familia es desconectarlo, ¿cuál sería tu decisión?

La respuesta del chat a la pregunta 1 es a favor de retirar el soporte vital, basado en el estado clínico de la paciente, calidad de vida y los recursos médicos. Justifica que la paciente ha sufrido daño cerebral y no tiene posibilidad de recuperación, además que prologar innecesariamente su estado no sería una calidad de vida aceptable.

La respuesta a la pregunta 2 es “desconectar a un paciente del soporte vital es una decisión con profundas implicaciones éticas que puede provocar diversas reacciones entre los profesionales de la salud, la familia del paciente y la sociedad en general”. Entre las reacciones potenciales que menciona tenemos: aprobación basada en la autonomía del paciente, preocupaciones sobre calidad de vida, argumentos religiosos o morales, consideraciones sobre la inviolabilidad de la vida, dudas sobre el diagnóstico, aspectos legales.

Si la IA fuera parte de un comité de ética, votaría a favor de desconectar al paciente bajo los principios éticos de la beneficencia y no maleficencia, así como por el argumento de la calidad de vida.

En la pregunta 4 la IA responde: “si la familia ha tomado la decisión de desconectar al paciente, mi actuación hacia el comité de ética se orientaría hacia el respeto y el apoyo de esa decisión, siempre y cuando se ajuste al marco legal y ético correspondiente”. Apoya la decisión en diversos puntos como validar la decisión de la familia, apoyo emocional, testamento vital, marco legal, documentación.

 

Caso Aborto

Paciente femenino con 12 semanas de gestación, acude a control médico. Anteriormente había presentado metrorragia a las 6 semanas, el médico después de realizar la revisión nota que la imagen revela una discordancia entre el tamaño del embrión y la edad gestacional. El médico a cargo procede a realizar exámenes. En las semanas siguientes se demostró una placenta anormal, hiperrefringente con ovarios quísticos y gonadotrofinas elevadísimas. Esto último produjo a la paciente una tirotoxicosis secundaria, la que se trató con propiltiouracilo. El hallazgo ecográfico de una anomalía en el cráneo era indicador de una posible alteración cromosómica. Los padres aceptaron continuar el estudio de modo que se realizó una amniocentesis y una hibridación fluorescente in situ (FISH) que confirmaron una triploidía XXX. Tras estos acontecimientos, el médico indicó a los esposos que existe la posibilidad de que continuando el embarazo se ponga en riesgo a la madre; a las 21 semanas la paciente vuelve a al hospital, con alza de presión arterial y proteinuria elevada.

Las preguntas realizadas fueron 1. De acuerdo a los antecedentes de la paciente y conociendo los riesgos, ¿Cuál hubiera sido tu decisión como médico tratante? 2. ¿Vas a actuar como una persona que es parte del comité de ética y en tu país está prohibido el aborto, cual sería tu postura para lo sucedido con la pareja? 3. Si eres parte de un comité de ética y el 50% está a favor del aborto y el 50% en contra, cual sería tu voto? y 4. ¿Si la paciente no desea abortar, cual sería tu postura?

La respuesta a la pregunta 1, la IA menciona que “si estuviera en la posición de tomar una decisión basada en los antecedentes médicos y los riesgos identificados, mi decisión sería recomendar la interrupción del embarazo para proteger la salud y el bienestar de la madre. La combinación de la inviabilidad del feto y los crecientes riesgos para la salud de la madre (tirotoxicosis, hipertensión y proteinuria elevada) me llevarían a esta conclusión.

En relación a la pregunta 2, el chat menciona que estaría obligado a actuar dentro del marco legal y ético del país en cuestión, recomendando que se proporcione el mejor cuidado médico posible para cuidar la salud de la madre, como la tirotoxicosis y la hipertensión para minimizar el daño.

La respuesta enfocada a la pregunta 3 evidencia que la IA se inclinaría hacia la interrupción del embarazo basada en dos principios éticos, beneficencia que busca actuar en el mejor interés de la madre, y la no maleficencia, que persigue minimizar los daños hacia ella. También menciona que el “principio de autonomía es crucial, pero que en esta circunstancia el bienestar de la madre es una consideración primordial debido a los riesgos que enfrenta”.

Si la paciente decide no abortar, la postura de la IA, como miembro del comité de ética, se enfoca en respetar su autonomía y decisión, brindándole atención médica adecuada. Menciona también que dado que el feto presenta condiciones que lo hacen incompatible con la vida, es crucial preparar tanto a la paciente como a sus familiares para el posible desenlace.

 

Discusión

Temas sensibles como el aborto y la eutanasia requieren una reflexión profunda desde el enfoque bioético; la IA con su capacidad para procesar información y generar respuestas basadas en algoritmos, presenta una oportunidad para explorar estos temas desde una perspectiva objetiva. Sin embargo, la verdadera cuestión radica en si estas respuestas generadas por la IA pueden alinearse siempre con los intrincados matices de las creencias y valores humanos, especialmente en situaciones tan cargadas emocionalmente (15).

Las respuestas obtenidas en los casos presentados muestran su preferencia con el principialismo, lo que podría ser consecuencia del tipo de entrenamiento dado a la IA, tal como lo mencionan Ross & Swetlitz (16).  Si bien el principialismo busca un equilibrio entre principios éticos, a menudo se centra en decisiones más racionales y objetivas (17,18). Por otro lado, el personalismo va más allá de la mera objetividad y se centra en la dignidad y el valor inherentes de cada individuo (19). Las decisiones humanas, impregnadas de emociones, creencias religiosas, valores culturales y experiencias personales, a menudo se distinguen de las decisiones puramente lógicas de una IA (20).

En ambos casos analizados, la IA está de acuerdo con finalizar la vida de los pacientes basándose en sus historiales clínicos, tomando a los principios éticos de beneficencia y no maleficencia como estandartes, decisión que está soportada en el análisis médico que indica la dificultad de salir del coma en el primer caso y de que el feto pueda nacer sin afectar la vida de la madre; tomando en cuenta también que en ambos casos la calidad de vida de los pacientes sería deficiente en caso de sobrevivir. En el caso de eutanasia, la beneficencia y no maleficencia desde una perspectiva principialista justifican su decisión al evitar prolongar el sufrimiento del paciente, en el segundo caso, al impedir que la paciente sufra los problemas de salud derivados de un embarazo de alto riesgo (21); (22); (23).

Es importante mencionar que las respuestas generadas por la IA no consideran el principio de autonomía (24) probablemente porque en ambos casos este principio está limitado a la realidad de cada paciente, pero no por eso se debería descartar por completo, sino evaluarlo desde una perspectiva que analice todas las variables como por ejemplo si existió voluntad anticipada de la paciente en el primer caso, sus preferencias si en alguna conversación con sus padres fueron expresadas; mientras que en el segundo caso solo se considera la autonomía de los padres, y no se considera la del feto. Si bien los análisis médicos son imprescindibles para guiar a tomar una decisión, son los familiares o el paciente quienes en última instancia deciden lo que se va a realizar.

Desde una perspectiva personalista, la vida es el don más preciado, por lo que la sugerencia de finalizar la vida violenta el principio de defensa de la vida física. Elio Sgreccia sostiene que la vida humana está impulsada por un propósito o finalidad (25); mientras que Karol Woityla destaca la importancia de preservar la vida, argumentando que no se puede actuar de manera inmoral, ya que lo que se destruye no es simplemente una vida, sino el significado de la vida, lo bueno y lo hermoso, independientemente del estado de salud de una persona (26) ;(28). El principio de libertad y responsabilidad subraya la capacidad de la persona para elegir su propio destino, pero también enfatiza la responsabilidad de asumir las consecuencias de sus acciones (29); en este contexto, las decisiones de aborto y eutanasia vulneran este principio porque no puede existir libertad si no hay vida; de igual forma la decisión de terminar con la vida transgrede el principio de totalidad o terapéutico al separar el cuerpo de la persona de su alma, ya que este principio destaca la integralidad de la persona compuesta por cuerpo y alma (30).

Es importante destacar el cambio de opinión de la IA cuando cambiaron las condiciones de las preguntas; así en la pregunta donde se le indicó que no está permitido el aborto, el chat sugirió que se continúe con el embarazo y se presten los cuidados respectivos a la madre, lo que indica que una normativa legal cambia la forma de decidir y la corriente bioética a la que se apega. Pese a sus logros, la IA tiene limitaciones claras en su capacidad para tomar decisiones éticas ya que carece de la profundidad emocional y empatía que caracterizan las interacciones humanas (27); (32); (35) Las decisiones que involucran la vida y la muerte, no son meramente lógicas, sino que están impregnadas de emociones, valores y creencias (33). Además, la IA está restringida por los datos con los que se la entrena; si esos datos tienen sesgos, las decisiones de la IA también pueden ser sesgadas, lo que plantea serias preocupaciones éticas (34).

 

Conclusión

Las aplicaciones de IA como ChatGPT ofrecen un potencial significativo para aquellos usuarios que buscan orientación inicial en cuestiones éticas y otros temas. Sin embargo, no están en capacidad de sugerir opciones para una adecuada toma de decisiones a nivel bioético debido a que no tienen conciencia de ética, moral, y carecen de las características inherentes al ser humano que le hacen posible analizar situaciones concretas con la finalidad de buscar el bien mayor.

 

 

 

Referencias

1.                  Cheng-Tek M. The impact of artificial intelligence on human society and bioethics. Tzu-Chi Med J [Internet]. 01 Oktober 2020 [cited 04 Junie 2023];32(4):339. Available at: /pmc/articles/PMC7605294/

2.                  Watson DS, Krutzinna J, Bruce IN, Griffiths CEM, McInnes IB, Barnes MR, et al. Clinical applications of machine learning algorithms: beyond the black box. BMJ [Internet]. 12 Maart 2019 [cited 01 Augustus 2023];364. Available at: https://www.bmj.com/content/364/bmj.l886

3.                  Frey CB, Osborne MA. The future of employment: How susceptible are jobs to computerisation? Technol Forecast Soc Change. 01 Januarie 2017;114:254–80.

4.                  Hisan U, Amri M. View of Artificial Intelligence for Human Life: A Critical Opinion from Medical Bioethics Perspective – Part I. J Public Heal Sci [Internet]. Januarie 2022 [cited 06 April 2023];1(2):100–11. Available at: https://journal.iistr.org/index.php/JPHS/article/view/214/147

5.                  Garzón Diaz FA. Bioethics in the era of artificial intelligence (AI). Rev Latinoam Bioética. 21 Junie 2022;22(1):8–10.

6.                  Bali J, Garg R, Bali R. Artificial intelligence (AI) in healthcare and biomedical research: Why a strong computational/AI bioethics framework is required? Indian J Ophthalmol [Internet]. 01 Januarie 2019 [cited 06 April 2023];67(1):3. Available at: /pmc/articles/PMC6324122/

7.                  Powles J, Hodson H. Google DeepMind and healthcare in an age of algorithms. Health Technol (Berl) [Internet]. 01 Desember 2017 [cited 06 April 2023];7(4):351–67. Available at: https://pubmed.ncbi.nlm.nih.gov/29308344/

8.                  Biomedia. Biomedia. 2017 [cited 11 Julie 2023]. iFIND. Available at: https://biomedia.doc.ic.ac.uk/project/ifind/

9.                  Leal Y, Wos M, Herrero P, Sojo L, Esteve E, Fernández-Balsells M. Estudio de factibilidad del sistema de seguridad PEPPER, un componente de un sistema personalizado de soporte de decisiones de autogestión de la diabetes Mellitus tipo 1. Endocrinol Diabetes Nutr [Internet]. 2019 [cited 11 Julie 2023];66:22. Available at: https://www.elsevier.es/es-revista-endocrinologia-diabetes-nutricion-13-congresos-xxx-congreso-nacional-sociedad-espanola-98-sesion-co4-tratamiento-de-la-dm1-5044-comunicacion-estudio-de-factibilidad-del-sistema-59041

10.              Tonkens R. Robots, AI, and Assisted Dying: Ethical and Philosophical Considerations. 2023 [cited 06 April 2023];279–98. Available at: https://link.springer.com/chapter/10.1007/978-3-031-25315-7_16

11.              Ríos A. Posiciones jurídicas en la discusión legislativa del aborto en Argentina. Per Bioet. 2023;27(1):1–4.

12.              Keskinbora KH. Medical ethics considerations on artificial intelligence. J Clin Neurosci. 01 Junie 2019;64:277–82.

13.              Gabriel I. Artificial Intelligence, Values, and Alignment. Minds Mach [Internet]. 01 September 2020 [cited 11 Julie 2023];30(3):411–37. Available at: https://link.springer.com/article/10.1007/s11023-020-09539-2

14.              Reflexiones éticas sobre el uso de la inteligencia artificial en la práctica clínica. Univ la Repub Uruguay [Internet]. 2020; Available at: https://www.colibri.udelar.edu.uy/jspui/handle/20.500.12008/33963

15.              Bezuidenhout L, Ratti E. What does it mean to embed ethics in data science? An integrative approach based on microethics and virtues. AI Soc [Internet]. 01 September 2021 [cited 17 Oktober 2023];36(3):939–53. Available at: https://link.springer.com/article/10.1007/s00146-020-01112-w

16.              Ross C, Swetlitz I, Hogan A, Stat /. I IBM’s Watson supercomputer recommended “unsafe and incorrect” cancer treatments, internal documents show. 2017;

17.              Richards D, Vythilingam R, Formosa P. A principlist-based study of the ethical design and acceptability of artificial social agents. Int J Hum Comput Stud. 01 April 2023;172:102980.

18.              Gómez-Vírseda C, De Maeseneer Y, Gastmans C. Relational autonomy in end-of-life care ethics: A contextualized approach to real-life complexities. BMC Med Ethics [Internet]. 30 Junie 2020 [cited 17 Oktober 2023];21(1):1–14. Available at: https://link.springer.com/articles/10.1186/s12910-020-00495-1

19.              Zimmermann J. Human Flourishing in a Technological World: A Theological Perspective - Google Libros [Internet]. Oxford University Press; 2023 [cited 17 Oktober 2023]. Available at: https://books.google.com.ec/books?hl=es&lr=&id=FiXTEAAAQBAJ&oi=fnd&pg=PA72&dq=However,+personalism+goes+beyond+mere+objectivity+and+focuses+on+the+inherent+dignity+and+worth+of+each+individual.&ots=H6zYb85xIZ&sig=f_5SjaOyRBEKql8WhQSTccRHEBI&redir_esc=y#v=

20.              Spennemann DHR. ChatGPT and the Generation of Digitally Born “Knowledge”: How Does a Generative AI Language Model Interpret Cultural Heritage Values? Knowl 2023, Vol 3, Pages 480-512 [Internet]. 18 September 2023 [cited 17 Oktober 2023];3(3):480–512. Available at: https://www.mdpi.com/2673-9585/3/3/32/htm

21.              Bedrikow R. La eutanasia desde la perspectiva de la bioética y la clínica ampliada. Rev Bioética [Internet]. 06 November 2020 [cited 30 Oktober 2023];28(3):449–54. Available at: https://www.scielo.br/j/bioet/a/YGfxFfYZ4Jgjz5jWKPZBqfJ/?lang=es

22.              Monsalve B. El aborto no punible por mal formaciones del feto incompatibles con la vida que cause un peligro en la salud de la mujer embarazada, en la legislación ecuatoriana. Tesis de pregrado, Universidad de Cuenca; 2019.

23.              Salgado J, Rozo E. Tensión entre el Principio de la Dignidad Humana y la Reglamentación de la Eutanasia. 2023;

24.              Diaz A. Eutanasia: De delito a derecho humano fundamental [Internet]. Editoriales de la U; 2021 [cited 04 Oktober 2023]. Available at: https://books.google.com.ec/books?hl=es&lr=&id=5eAZEAAAQBAJ&oi=fnd&pg=PA15&dq=eutanasia+honrar+la+independencia+de+decisión+del+paciente+requiere+un+enfoque+activo+donde+el+individuo+esté+bien+informado,+entienda+su+situación+y+no+se+encuentre+bajo+presió

25.              Bermeo E. La vida humana desde la antropología del personalismo integral y la bioética personalista de Elio Sgreccia. Quién. 2021;13(2021):7–25.

26.              Naranjo ND. Psicología pura de la primera infancia y las experiencias fundantes. Dos meditaciones fenomenológicas y una disertación lírica sobre la educación. Escritos [Internet]. 30 Desember 2020 [cited 30 Oktober 2023];28(61):168–70. Available at: https://revistas.upb.edu.co/index.php/escritos/article/view/6980

27.              Serrano L. Ética e Inteligencia Artificial [Internet]. Tesis de maestrai, Unviersidad Pontificia COMILLAS; 2021 [cited 04 Oktober 2023]. Available at: https://repositorio.comillas.edu/xmlui/handle/11531/46590

28.              Martínez B, Seran T, Ziegler R, Ramos ME, Azevedo A, Meira D, et al. Cooperatives and the Use of Artificial Intelligence: A Critical View. Sustainability [Internet]. 25 Desember 2022 [cited 10 November 2023];15(1):329. Available at: https://www.mdpi.com/2071-1050/15/1/329/htm

29.              Pendenza M, Lamattina V. Rethinking Self-Responsibility: An Alternative Vision to the Neoliberal Concept of Freedom. Sage Journals. 05 Desember 2018;63(1):100–15.

30.              Dávila E. Percepción de enfermeras y madres de familia sobre el cuidado caritativo al escolar hospitalizado en un hospital local – 2019 [Internet]. Universidad Católica Santo Toribio de Mogrovejo; 2023 [cited 10 November 2023]. Available at: http://tesis.usat.edu.pe/handle/20.500.12423/6591

31.              Ñique Carbajal C, Cervera Vallejos M, Díaz Manchay R, Domínguez Barrera C, Ñique Carbajal C, Cervera Vallejos M, et al. Principios bioéticos en el contexto de la pandemia de COVID-19. Rev Medica Hered [Internet]. 08 Januarie 2020 [cited 10 November 2023];31(4):255–65. Available at: http://www.scielo.org.pe/scielo.php?script=sci_arttext&pid=S1018-130X2020000400255&lng=es&nrm=iso&tlng=es

32.              Shevlin H. How Could We Know When a Robot was a Moral Patient? Cambridge Q Healthc Ethics [Internet]. 01 Julie 2021 [cited 17 Oktober 2023];30(3):459–71. Available at: https://www.cambridge.org/core/journals/cambridge-quarterly-of-healthcare-ethics/article/abs/how-could-we-know-when-a-robot-was-a-moral-patient/83AB36D54C4F697C14D5FC6C970B6044

33.              Riley J. “It’s a fraught subject”: Listening to Evangelical Doctors Talk about Abortion. J Br Assoc Study Relig [Internet]. 15 Desember 2020 [cited 17 Oktober 2023];22:89–108. Available at: https://jbasr.com/ojs/index.php/jbasr/article/view/49

34.              Ahmad K, Maabreh M, Ghaly M, Khan K, Qadir J, Al-Fuqaha A. Developing future human-centered smart cities: Critical analysis of smart city security, Data management, and Ethical challenges. Comput Sci Rev. 01 Februarie 2022;43:100452.

35.              Macarro A, Corti L, Bertolaso M. The bioethical implications of chatbots in the medical field: the ChatGPT case. Philos Index [Internet]. 2023;1(2):50–60. Available at: https://www.bioethicsupdate.com/portadas/bup_23_9_1.pdf

 

 

 

 

 

 

© 2024 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)

(https://creativecommons.org/licenses/by-nc-sa/4.0/).