La semana pasada, el ingeniero de Google Blake Lemoine aseguró que el chatbot LaMDA (N88P05) es una “persona”, y que tiene sintiencia (N88P06): que siente. Google lo suspendió.
“Te lo dije”, recriminaron Timmit Gebru (N15P06) y Margaret Mitchell, analistas de ética de la inteligencia artificial echadas de Google. “Era exactamente lo que habíamos advertido que ocurriría en 2020 (…). LaMDA, abreviatura de Language Model for Dialogue Applications (modelo lingüístico para aplicaciones de diálogo), es un sistema basado en grandes modelos lingüísticos (LLM) entrenados en grandes cantidades de datos de texto (…) con el objetivo de predecir secuencias probables de palabras. (…) Llamamos a estos sistemas ‘loros estocásticos’, ya que cosen y repiten el lenguaje basándose en lo que han visto antes, sin conexión con el significado subyacente. Uno de los riesgos que señalamos fue que la gente imputa una intención comunicativa a cosas que parecen humanas. (…) Los LLM generan un texto aparentemente coherente que puede llevar a la gente a percibir una ‘mente’ cuando lo que realmente ven es la coincidencia de patrones y la predicción de cadenas. Esto (…) significa que la inteligencia percibida de los modelos da lugar a más problemas de los que estamos preparados para abordar. (…) Están alimentando la propensión del público a ver inteligencia en los sistemas actuales, pregonando que podrían ser ‘ligeramente conscientes’ (…). El vicepresidente de Google, Blaise Agüera y Arcas, describe a LaMDA como una ‘corteza cerebral artificial’. (…) Estos relatos tienen motivos de lucro: (…) construir una ‘inteligencia general artificial’, (…) que pueda hacer cualquier tarea que un humano pueda hacer, sin cansarse y sin paga. (…) El impulso hacia este fin deja de lado los muchos daños potenciales (…). Y atribuir ‘sintiencia’ a un producto implica que cualquier maldad es obra de un ser independiente, en lugar de ser obra de la empresa -formada por personas reales y sus decisiones, y sujeta a regulación- que lo creó.”