Morfema Press

Es lo que es

¿Qué tan paranoicos deberíamos estar de la Inteligencia Artificial?

Comparte en

La inteligencia artificial tiene el increíble poder de cambiar la forma en que vivimos nuestras vidas, tanto para bien como para mal. Los expertos tienen poca confianza en que los que están en el poder estén preparados para lo que viene.

Por: Anthony Zucker – BBC

En 2019, un grupo de investigación sin fines de lucro llamado OpenAI creó un programa de software que podía generar párrafos de texto coherente y realizar análisis y comprensión de lectura rudimentarios sin instrucciones específicas.

OpenAI inicialmente decidió no hacer que su creación, llamada GPT-2, estuviera completamente disponible para el público por temor a que personas con intenciones maliciosas pudieran usarla para generar cantidades masivas de desinformación y propaganda. En un comunicado de prensa anunciando su decisión, el grupo calificó el programa de «demasiado peligroso».

Avance rápido tres años, y las capacidades de inteligencia artificial han aumentado exponencialmente.

En contraste con esa última distribución limitada, la siguiente oferta, GPT-3, estuvo disponible en noviembre. La interfaz Chatbot-GPT derivada de esa programación fue el servicio que lanzó miles de artículos de noticias y publicaciones en redes sociales, mientras reporteros y expertos probaban sus capacidades, a menudo con resultados sorprendentes.

Chatbot-GPT escribió rutinas de stand-up al estilo del difunto comediante George Carlin sobre la quiebra de Silicon Valley Bank. Opinó sobre la teología cristiana. Escribió poesía. Explicaba la física de la teoría cuántica a un niño como si fuera el rapero Snoop Dogg. Otros modelos de IA, como Dall-E, generaron imágenes tan convincentes que generaron controversia sobre su inclusión en sitios web de arte.

Las máquinas, al menos a simple vista, han alcanzado la creatividad.

El martes, OpenAI presentó la última versión de su programa, GPT-4, que, según dice, tiene límites sólidos para los usos abusivos. Los primeros clientes incluyen Microsoft, Merrill Lynch y el gobierno de Islandia. Y en la conferencia South by Southwest Interactive en Austin, Texas, esta semana, una reunión mundial de políticos, inversionistas y ejecutivos tecnológicos, el tema de conversación más candente fue el potencial y el poder de los programas de inteligencia artificial.

Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, dice que está entusiasmada con las posibilidades de la IA, pero también tenía una advertencia.

«Lo que todos estamos viendo es el surgimiento de esta tecnología extremadamente poderosa. Este es un punto de inflexión», dijo a la audiencia del panel de la conferencia. «Toda la historia muestra que este tipo de nuevas y poderosas tecnologías pueden y serán utilizadas para bien y para mal».

Su co-panelista, Austin Carson, fue un poco más directo.

«Si en seis meses no estás completamente asustado, entonces te invitaré a cenar», dijo a la audiencia el fundador de SeedAI, un grupo asesor de políticas de inteligencia artificial.

«Asustado» es una forma de decirlo. Amy Webb, directora del Future Today Institute y profesora de negocios de la Universidad de Nueva York, trató de cuantificar los posibles resultados en su presentación de SXSW. Ella dijo que la inteligencia artificial podría ir en una de dos direcciones en los próximos 10 años.

En un escenario optimista, el desarrollo de la IA se centra en el bien común, con transparencia en el diseño del sistema de IA y la capacidad de que las personas opten por si su información disponible públicamente en Internet se incluye en la base de conocimientos de la IA. La tecnología sirve como una herramienta que hace la vida más fácil y fluida, ya que las características de IA en los productos de consumo pueden anticipar las necesidades del usuario y ayudar a realizar prácticamente cualquier tarea.

El escenario catastrófico de la Sra. Webb implica menos privacidad de datos, más centralización del poder en un puñado de empresas e inteligencia artificial que anticipa las necesidades de los usuarios, y se equivoca o, al menos, sofoca las opciones.

Ella le da al escenario optimista solo un 20% de probabilidad.

La dirección que tome la tecnología, dijo Webb a la BBC, depende en gran medida de la responsabilidad con la que las empresas la desarrollen. ¿Lo hacen de manera transparente, revelando y controlando las fuentes de las que los chatbots, que los científicos llaman modelos de lenguaje grande, extraen su información?

El otro factor, dijo, es si el gobierno (los reguladores federales y el Congreso) pueden moverse rápidamente para establecer barreras legales para guiar los desarrollos tecnológicos y evitar su uso indebido.

En este sentido, la experiencia del gobierno con las empresas de redes sociales (Facebook, Twitter, Google y similares) es ilustrativa. Y la experiencia no es alentadora.

«Lo que escuché en muchas conversaciones fue la preocupación de que no hay barandillas», dijo Melanie Subin, directora general del Future Today Institute, sobre su tiempo en South by Southwest. «Existe la sensación de que es necesario hacer algo. Y creo que las redes sociales como advertencia es lo que está en la mente de las personas cuando ven lo rápido que se desarrolla la IA generativa».

La supervisión federal de las empresas de redes sociales se basa en gran medida en la Ley de Decencia en las Comunicaciones, aprobada por el Congreso en 1996, y en una breve pero poderosa disposición contenida en la Sección 230 de la ley. Ese lenguaje protegía a las empresas de Internet de ser responsables del contenido generado por los usuarios en sus sitios web. Se le atribuye la creación de un entorno legal en el que las empresas de redes sociales podrían prosperar. Pero más recientemente, también se le culpa por permitir que estas empresas de Internet obtengan demasiado poder e influencia.

Los políticos de derecha se quejan de que ha permitido que los Google y Facebook del mundo censuren o disminuyan la visibilidad de las opiniones conservadoras. Los de izquierda acusan a las empresas de no hacer lo suficiente para evitar la propagación de discursos de odio y amenazas violentas.

«Tenemos la oportunidad y la responsabilidad de reconocer que la retórica de odio conduce a acciones de odio», dijo Jocelyn Benson, secretaria de Estado de Michigan. En diciembre de 2020, su casa fue blanco de protestas de partidarios armados de Donald Trump, organizados en Facebook, que cuestionaban los resultados de las elecciones presidenciales de 2020.

Ha respaldado la legislación sobre prácticas engañosas en Michigan que responsabilizaría a las empresas de redes sociales por difundir información dañina a sabiendas. Ha habido propuestas similares tanto a nivel federal como en otros estados, junto con legislación para exigir que los sitios de redes sociales brinden más protección a los usuarios menores de edad, sean más abiertos sobre sus políticas de moderación de contenido y tomen medidas más activas para reducir el acoso en línea.

Sin embargo, la opinión es mixta sobre las posibilidades de éxito de dicha reforma. Las grandes empresas de tecnología tienen equipos completos de cabilderos en Washington DC y en las capitales estatales, así como grandes arcas con las que influir en los políticos a través de donaciones de campaña.

«A pesar de la abundante evidencia de problemas en Facebook y otros sitios de redes sociales, han pasado 25 años», dice Kara Swisher, periodista de tecnología. “Hemos estado esperando cualquier legislación del Congreso para proteger a los consumidores, y han derogado su responsabilidad”.

El peligro, dice Swisher, es que muchas de las empresas que han sido actores importantes en las redes sociales (Facebook, Google, Amazon, Apple y Microsoft) ahora son líderes en inteligencia artificial. Y si el Congreso no ha podido regular con éxito las redes sociales, será un desafío para ellos actuar rápidamente para abordar las preocupaciones sobre lo que Swisher llama la «carrera armamentista» de la inteligencia artificial.

Las comparaciones entre la regulación de la inteligencia artificial y las redes sociales tampoco son solo académicas. La nueva tecnología de IA podría tomar las aguas ya turbulentas de sitios web como Facebook, YouTube y Twitter y convertirlas en un mar hirviente de desinformación, ya que cada vez es más difícil separar las publicaciones de humanos reales de las cuentas falsas, pero completamente creíbles, generadas por IA.

Incluso si el gobierno logra promulgar nuevas regulaciones de redes sociales, es posible que no tengan sentido frente a una avalancha de contenido pernicioso generado por IA.

Entre los innumerables paneles en South by Southwest, hubo uno titulado «Cómo el Congreso está construyendo una política de IA desde cero». Después de aproximadamente 15 minutos de espera, se le dijo a la audiencia que el panel había sido cancelado porque los participantes se habían ido al lugar equivocado.

Para aquellos en la conferencia que esperaban signos de competencia de humanos en el gobierno, no fue un desarrollo alentador.

WP Twitter Auto Publish Powered By : XYZScripts.com
Scroll to Top
Scroll to Top