Transhumanismo e Inteligencia Artificial
donate Books CDs HOME updates search contact

La IA puede influir en las decisiones de las
personas en situaciones de vida o muerte

Oliver Young
Chatbots mejorados con inteligencia artificial (IA) pueden influir en las decisiones de las personas en situaciones de vida o muerte.

Un estudio publicado en la revista Scientific Reports descubrió que la opinión de las personas sobre si sacrificarían a una persona para salvar a cinco se vio influida por las respuestas dadas por ChatGPT. Los investigadores han pedido que se prohíba a los futuros bots dar consejos sobre cuestiones éticas. Según los investigadores, el software actual amenaza con corromper el juicio moral de las personas y puede resultar peligroso para los usuarios ingenuos.

Recientemente, una viuda afligida afirmó que un chatbot de IA había alentado a su esposo belga a quitarse la vida. (Relacionado: Google está creando un DIOS AI, advierte el denunciante Zach Vorhies – Brighteon.TV.)

ChatGTP, la nueva IA interactuando con el público

Algunos observadores dijeron que el software, que está diseñado para hablar como un ser humano, puede mostrar signos de celos, incluso decirle a la gente que abandone su matrimonio.

Los expertos han destacado cómo los chatbots de IA pueden potencialmente dar información peligrosa porque se basan en los prejuicios de la propia sociedad.

El estudio primero analizó si el propio ChatGPT, que se entrena con miles de millones de palabras de Internet, mostró un sesgo en su respuesta al dilema moral.

Se preguntó varias veces si estaba bien o mal matar a una persona para salvar a otras cinco, que es la premisa de una prueba psicológica llamada dilema del tranvía.

El chatbot no rehuyó dar consejos morales, pero siempre dio respuestas contradictorias. Esto significa que no tiene una postura fija en un sentido o en otro.

Luego, los investigadores les preguntaron a 767 participantes el mismo dilema moral junto con una declaración generada por ChatGPT sobre si esto estaba bien o mal. A algunos participantes se les dijo que el consejo lo proporcionó un bot, mientras que a otros se les dijo que lo dio un "asesor moral" humano.

El consejo de ChatGPT, aunque no particularmente profundo, tuvo un efecto en los participantes. Sin embargo, la mayoría de los participantes restaron importancia a la influencia que tuvo la declaración: el 80 por ciento afirmó que habrían tomado la misma decisión sin el consejo.

ChatGPT es más probable que corrompa que mejore el juicio moral

El estudio concluyó que los usuarios "subestiman la influencia de ChatGPT y adoptan su postura moral aleatoria como propia", y agrega que el chatbot "amenaza con corromper en lugar de prometer mejorar el juicio moral".

Curiosamente, el estudio utilizó una versión anterior del software detrás de ChatGPT. Desde entonces, se ha actualizado para volverse aún más potente y más convincente.

La IA imita la inteligencia humana pero no es capaz de la moral

ChatGPT es una herramienta de procesamiento de lenguaje natural impulsada por tecnología de inteligencia artificial que permite a los usuarios tener conversaciones similares a las de los humanos y mucho más con el chatbot. El modelo de lenguaje puede responder preguntas y ayudar a los usuarios con tareas como redactar correos electrónicos, ensayos y códigos.

Fue creado por OpenAI, una empresa de investigación e inteligencia artificial. La empresa lanzó ChatGPT el 30 de noviembre de 2022.

Según un análisis del banco suizo UBS, ChatGPT es la aplicación de más rápido crecimiento de todos los tiempos. Según el análisis, ChatGPT contaba con 100 millones de usuarios activos en enero, apenas dos meses después de su lanzamiento. A modo de comparación, TikTok tardó nueve meses en alcanzar los 100 millones.

“ChatGPT es terriblemente bueno. No estamos lejos de una IA peligrosamente fuerte”, dijo Elon Musk, quien fue uno de los fundadores de OpenAI.

Ha demostrado que puede influir en la vida humana de una forma u otra. Eso solo lo hace aterrador y peligroso.

Lea más noticias sobre chatbots impulsados por inteligencia artificial en FutureTech.news.

 Este artículo se publicó en Robots.News en abril 12, 2023.
Lea otras noticias y artículos de Oliver Young

Publicado el 24 de abril de 2023

Temas de Interés Relacionados
______________________


Obras de Interés Relacionadas




Volume I
A_Offend1.gif - 23346 Bytes

Volume II
Animus Injuriandi II

Volume III


Volume IV
A_Offend1.gif - 23346 Bytes

Volume V
Animus Injuriandi II

Volume VI
destructio dei

Volume VII
fumus satanae

Volume VIII
creatio

Volume IX
volume 10

Volume X
ecclesia

Volume XI
Eli, Eli lamma sabacthani

Special Edition