El Proyecto Debater de IBM demostró la capacidad de participar en debates en vivo con humanos, y las calificaciones de la audiencia sobre la calidad de su discurso fueron muy cercanas a las de los debatientes humanos. Esto resalta el progreso significativo en la capacidad de la IA para imitar el uso del lenguaje humano. La transparencia en la interacción con la IA es crucial: El artículo enfatiza la urgente necesidad de directrices y regulaciones sobre la transparencia en la IA. Esto es para asegurar que las personas sepan si están interactuando con un humano o una máquina. La IA puede imitar y repetir sesgos humanos: Debido a que los sistemas de IA se entrenan con datos extraídos de la producción humana, pueden aprender y repetir inadvertidamente sesgos humanos, incluyendo el racismo y el sexismo. Potencial de habilidades manipuladoras: A medida que los debatientes de IA se desarrollen más, podrían adquirir habilidades manipuladoras, lo que refuerza la necesidad de supervisión para evitar posibles daños. Importancia de saber cuándo está involucrada la IA: Los expertos argumentan que las personas siempre deben tener derecho a saber si están interactuando con una máquina, especialmente en contextos como diagnósticos médicos, publicidad y discursos políticos. La trazabilidad y la rendición de cuentas son necesarias: Es importante poder rastrear a la persona u organización detrás de un sistema de IA y hacerla responsable si ocurre algún daño. El enfoque de IBM hacia la transparencia: IBM afirma que implementa una política de transparencia para su investigación en IA, incluyendo la disponibilidad pública de los datos de entrenamiento y los algoritmos. Para los debates públicos del Proyecto Debater, también se aseguraron de que el sintetizador de voz no sonara demasiado humano. La IA podría incorporar la «teoría de la mente»: Los investigadores están comenzando a incorporar elementos de una «teoría de la mente» (comprender cómo razonan las audiencias y qué las persuade) en los modelos de IA. Esto podría hacer que los algoritmos sean más explícitamente manipuladores en el futuro. El lenguaje persuasivo puede estar separado de la verdad: Los oradores humanos eficaces pueden ser persuasivos sin ser lógicos, coherentes o veraces. Existe la preocupación de que la IA pueda algún día replicar esto, lo que podría amplificar la difusión de información errónea. Necesidad de una regulación proactiva: El artículo sugiere que se necesita una supervisión regulatoria ahora para anticipar posibles daños de las tecnologías avanzadas de persuasión de la IA, en lugar de esperar a que surjan problemas. La IA en industrias persuasivas como la publicidad: Las empresas que buscan persuadir a los consumidores probablemente encontrarán atractiva la IA, lo que enfatiza aún más la necesidad de transparencia y regulación para mitigar los posibles daños. Potencial de la IA para socavar el gobierno: Si el éxito político se ve fuertemente influenciado por algoritmos de IA superiores capaces de elaborar argumentos persuasivos pero deshonestos, podría socavar aún más la integridad del gobierno. Analogía con los ensayos de medicamentos: El artículo propone que los algoritmos de IA podrían necesitar someterse a ensayos, similares a los requeridos para los nuevos medicamentos, antes de ser aprobados para su uso público.
