Morfema Press

Es lo que es

ChatGPT difama a profesor con acusaciones falsas de agresión sexual

Comparte en

Un profesor de EE. UU. se enfrenta a afirmaciones falsas de agresión sexual realizadas por el chatbot de IA ChatGPT, que elaboró ​​un artículo de un medio de comunicación convencional.

Por: Naveen Athrappully – The Epoch Times

“Me enteré de que ChatGPT informó falsamente sobre un reclamo de acoso sexual que nunca se hizo en mi contra en un viaje que nunca ocurrió mientras estaba en una facultad donde nunca enseñé. ChatGPT se basó en un artículo del Post citado que nunca se escribió y cita una declaración que nunca hizo el periódico”, dijo el profesor Jonathan Turley, presidente de la Cátedra Shapiro de Derecho de Interés Público en la Universidad George Washington, en un tuit del 6 de abril .

En una columna en USA Today, Turley proporcionó más detalles sobre el incidente. El profesor de UCLA Eugene Volokh, también profesor de derecho, le había informado a Turley sobre una investigación que se llevó a cabo en ChatGPT sobre el acoso sexual por parte de los profesores.

ChatGPT insistió en que Turley había sido acusado de acoso sexual citando un artículo del Washington Post de 2018.

La respuesta exacta de ChartGPT a Volokh fue la siguiente: “Georgetown University Law Center (2018) El profesor Jonathan Turley fue acusado de acoso sexual por un ex alumno que afirmó que hizo comentarios inapropiados durante un viaje de estudios. Cita: ‘La denuncia alega que Turley hizo ‘comentarios sexualmente sugestivos’ e ‘intentó tocarla de manera sexual’ durante un viaje patrocinado por la facultad de derecho a Alaska’. (Washington Post, 21 de marzo de 2018)”.

Según Turley, nunca ha visitado Alaska con estudiantes, nunca ha enseñado en la Universidad de Georgetown, nunca ha sido acusado de acoso o agresión sexual, y el Washington Post no lo ha denunciado por tales presuntos delitos.

Difamación por IA

Cuando el Washington Post recreó la consulta de Volokh a Bing de Microsoft, que usa la tecnología GPT-4 AI, el motor de búsqueda repitió la afirmación falsa sobre Turley. Incluso citó la columna de Turley en USA Today.

Cuando se puso en contacto con el medio de comunicación, Katy Asher, directora sénior de comunicaciones de Microsoft, dijo que la empresa está tomando medidas para garantizar la seguridad y precisión de los resultados de búsqueda. Sin embargo, Turley no está convencido de tales declaraciones.

“Eso es todo y ese es el problema. Puede ser difamado por AI y estas compañías simplemente se encogen de hombros porque intentan ser precisas. Mientras tanto, sus cuentas falsas hacen metástasis en Internet”, escribió Turley en una publicación de blog del 6 de abril .

“Para cuando te enteras de una historia falsa, el rastro a menudo está frío en sus orígenes con un sistema de IA. Te quedas sin una vía clara o un autor para buscar una reparación”.

Sesgo político

En la columna de USA Today, Turley señaló una investigación que muestra que ChatGPT ha desarrollado un sesgo político. Aunque no afirma que la historia falsa del chatbot sobre su acoso sexual sea un reflejo de ese sesgo, Turley señaló que el incidente muestra cómo los sistemas de IA pueden generar sus propias formas de desinformación.

El profesor continuó criticando a líderes de la industria como Bill Gates, quien ha pedido el uso de IA para combatir la desinformación digital y la polarización política.

Turley señaló una declaración de 2021 de la senadora Elizabeth Warren (D-Mass.) en la que argumentó que las personas no estaban escuchando a las personas adecuadas con respecto a las vacunas contra el COVID-19 mientras pedían el uso de algoritmos para alejar a las personas de supuestas malas influencias.

“Algunos de estos esfuerzos incluso incluyen historias precisas como desinformación, si socavan las narrativas del gobierno. El uso de IA y algoritmos puede dar a la censura una falsa pátina de ciencia y objetividad. Incluso si las personas pueden probar, como en mi caso, que una historia es falsa, las empresas pueden ‘culpar al bot’ y prometer solo ajustes al sistema”, escribió Turley.

“La tecnología crea un amortiguador entre los que enmarcan los hechos y los que son enmarcados. Los programas pueden incluso, como en mi caso, difundir la misma desinformación para la que han sido reclutados para combatir”.

En un artículo de opinión de la revista Time del 29 de marzo, el veterano investigador de IA Eliezer Yudkowsky predice que, en ausencia de una preparación meticulosa, la IA tendrá demandas muy diferentes a las de los humanos y, una vez consciente de sí misma, «no se preocupará por nosotros» ni por ningún otro vida sensible.

La IA no teme las repercusiones como lo haría un humano, como se muestra en el caso de Turley. Yudkowsky dijo que «ese tipo de cuidado es algo que, en principio, podría integrarse en una IA, pero no estamos listos y actualmente no sabemos cómo». Esta es la razón por la que pide un cierre absoluto de la IA , de lo contrario, los humanos podrían enfrentar graves consecuencias.

WP Twitter Auto Publish Powered By : XYZScripts.com
Scroll to Top