quarta-feira, 19 de abril de 2023

Chomsky: La engañosa promesa de ChatGPT

 


 



NOAM CHOMSKY, PROFESOR EMÉRITO DEL INSTITUTO TECNOLÓGICO DE
MASSACHUSETTS (ARTÍCULO PUBLICADO POR EL NEW YORK TIME)

*/Cabe señalar que, a pesar de la aparente sofisticación del pensamiento
y el lenguaje ( de la inteligencia artificial), la indiferencia moral
surge de la falta de inteligencia. ChatGPT en sus respuestas nos
demuestra algo muy similar a la banalidad del mal: plagio, apatía y
evasión/*

/Jorge Luis Borges escribió una vez que vivir una época de grandes
peligros y grandes promesas es experimentar tanto la tragedia como la
comedia, con “una revelación inminente” para comprendernos a nosotros
mismos y comprender el mundo. Hoy, los llamados avances revolucionarios
en los campos de la inteligencia artificial son motivo de preocupación y
optimismo. Desde el optimismo debido a los avances de la ciencia y de la
degradación de la ética al inculcar esta “inteligencia” una concepción
fundamentalmente defectuosa del lenguaje y del conocimiento/

ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas
de aprendizaje automático. Básicamente, toman grandes cantidades de
datos, buscan patrones en ellos y mejoran cada vez más en la generación
de datos estadísticamente plausibles, como el lenguaje y el pensamiento
aparentemente análogos a los que se encuentran en los seres humanos.

Estos programas han sido elogiados como los primeros destellos en el
paisaje de una inteligencia artificial omnipresente: un momento
largamente profetizado en el que  mentes mecánicas superan a los
cerebros humanos no solo cuantitativamente en velocidad de procesamiento
y tamaño de la memoria, sino también cualitativamente en términos de
percepción intelectual y creatividad artística. y cualquier otra
facultad propia del ser humano.

Ese día puede llegar, pero aún no ha amanecido, contrariamente a lo que
leemos en los titulares hiperbólicos y que auguran inversiones
temerarias. La revelación borgiana de la comprensión no ha sucedido y no
sucederá, y, en nuestra opinión, no puede suceder, si los programas de
aprendizaje automático como ChatGPT continúan dominando el campo de la IA.

Por útiles que estos programas puedan ser en ciertos campos restringidos
(en el campo de la programación informática, por ejemplo, o para sugerir
rimas para un poema bonito), sabemos, gracias a la ciencia de la
lingüística y la filosofía del conocimiento, que difieren profundamente
de la forma en que los humanos piensan y usan el lenguaje.

Es a la vez cómico y trágico, como podría haber señalado Borges, que
tanto dinero y atención se centren en tan poco, algo tan trivial en
comparación con la mente humana que, a través del lenguaje, en palabras
de Wilhelm von Humboldt, puede hacer «uso infinito de medios finitos»,
elaborando ideas y teorías de significado universal.

A diferencia de ChatGPT y otros similares, la mente humana no es un
motor de búsqueda estadístico masivo de patrones que traga cientos de
terabytes de datos y extrapola la respuesta más probable a una pregunta
o la solución más probable a un problema científico. Muy por el
contrario, la mente humana es un sistema sorprendentemente eficiente y
refinado que trabaja con pequeñas cantidades de información; no busca
inferir correlaciones crudas de los datos, sino elaborar explicaciones.

Tomemos el caso de un niño pequeño que aprende un idioma, desarrolla
(inconsciente, natura y rápidamente a partir de datos diminutos) una
gramática y un sistema increíblemente sofisticado de principios y
parámetros lógicos. Esta gramática puede considerarse como la expresión
del un “sistema operativo” innato, de origen genético, que otorga al
hombre la capacidad de generar oraciones complejas y desarrollar
razonamientos extensos.

Cuando los lingüistas quieren construir una teoría para comprender cómo
funciona un idioma («¿Por qué esta oración se considera gramaticalmente
correcta y otra no?»), construyen consciente y laboriosamente una
versión estructurada de la gramática que el niño concibe instintivamente
y con un contacto mínimo de información

Estos programas están en realidad confinados a una fase prehumana o no
humana de la evolución cognitiva. Su mayor debilidad es su total
ausencia de capacidad crítica de cualquier inteligencia: decir no sólo
lo que es, lo que ha sido y lo que será – tal es la descripción y la
predicción- sino también lo que no es la cuestión  y lo que podría ser y
no podría ser el cuestión. Estos son los componentes de la explicación,
la marca de la inteligencia real.

Ilustremos esto con un ejemplo. Suponga que tienes una manzana en la
mano. Ahora suelta la manzana. Observas el resultado y dices: “La
manzana cae. Esta es una descripción. Una predicción podría haber sido
lo siguiente: «La manzana caerá si abro la mano». Ambos observaciones
son relevantes y pueden ser correctas.

Pero una explicación ofrece algo más: abarca no solo descripciones y
predicciones, sino también conjeturas hipotéticas como «Tal objeto
caería», más «debido a la fuerza de la gravedad» o «debido al hecho que
la curvatura de espacio-tiempo, etc. Este es un análisis de causalidad:
“La manzana no se habría caído sin la fuerza de la gravedad. Esto es
pensamiento.

En la base del aprendizaje automático se encuentran la descripción y la
predicción; no hay mecanismos causales ni leyes físicas. Por supuesto,
no todas las explicaciones hechas por humanos son necesariamente
precisas; somos falibles. Pero eso es parte de lo que significa pensar:
para tener razón, uno debe poder estar equivocado.

La inteligencia no consiste sólo en hacer conjeturas innovadoras,
también es necesario saber ser creativo en la crítica. El pensamiento
humano se basa en las posibles explicaciones y la corrección de errores,
proceso que va limitando progresivamente las posibilidades que se pueden
considerar racionalmente. Como le dijo Sherlock Holmes al Dr. Watson:
«Cuando se ha eliminado lo imposible, lo que quede – por improbable que
sea – debe ser la verdad. «

Pero ChatGPT y programas como este (por diseño) aunque son ilimitados en
lo que pueden «aprender» (es decir, recordar); son incapaces de
diferenciar entre lo posible y lo imposible. A diferencia de los humanos
que estamos dotados de una gramática universal que limita la capacidad
de idiomas que podemos aprender, estos programas aprenden con igual
facilidad lenguajes que son para humanos son difíciles de aprender. Si
bien los humanos tienen un número limitado de explicaciones
racionalmente posibles, los sistemas de aprendizaje automático pueden
aprender que de manera contradictoria y falsa, por ejemplo que la Tierra
es redonda y plana a la vez.

Es por eso que las predicciones de los sistemas de aprendizaje
automático siempre serán superficiales y cuestionables. Dado que estos
programas no pueden aplicar las reglas de la sintaxis; pueden, por
ejemplo, predecir incorrectamente que «John es demasiado terco para
hablar con otra persona, cuando la traducción correcta es que Juan es
demasiado terco para razonar con él.

¿Por qué un programa de aprendizaje inteligente predice algo tan
extraño? Porque pudo hacer una analogía entre el patrón de oraciones
como «Jean comió una manzana» y «Jean comió», en la que la última
expresión significa que Jean comió algo.

En el lenguaje, las explicaciones apropiadas son complicadas y no se
pueden captar simplemente estrujando la “big data”.

Paradójicamente, algunos entusiastas del aprendizaje automático parecen
enorgullecerse del hecho que sus creaciones pueden generar predicciones
«científicas» correctas (por ejemplo, sobre el movimiento de los cuerpos
físicos) sin recurrir a explicaciones (que involucren, por ejemplo, las
leyes del movimiento de Newton y gravedad universal).

Sin embargo, este tipo de predicción, incluso cuando tiene éxito, es
pseudociencia. Los científicos ciertamente buscan teorías que tengan un
amplio apoyo empírico, como ha observado el filósofo Karl Popper, “no
buscamos teorías que sean altamente probables, sino explicaciones, es
decir, teorías que sean convincentes y reciamente improbables”.

La teoría que las manzanas caen a la tierra porque ese es su destino
natural (la visión de Aristóteles) es bastante plausible, pero solo
plantea otras preguntas. (¿Por qué la tierra es su destino natural?) La
teoría que las manzanas caen a la tierra porque la masa dobla el
espacio-tiempo (la visión de Einstein) es muy improbable, pero ayuda a
explicar por qué caen. La verdadera inteligencia se manifiesta en la
capacidad de pensar y expresar cosas improbables pero relevantes.

La verdadera inteligencia es capaz de un pensamiento moral. Esto
significa restringir la creatividad ilimitada de nuestras mentes
mediante un conjunto de principios éticos que determinan lo que debería
y no debería ser. (y por supuesto sometiendo estos mismos principios a
un análisis crítico).

Para ser útil, ChatGPT debería ser capaz de generar textos con carácter
romántico y aceptable para la mayoría de sus usuarios, debería evitar el
contenido moralmente objetable. Pero es un equilibrio que los
programadores de ChatGPT y otras maravillas del aprendizaje automático
no han logrado.

En 2016, por ejemplo, el chatbot Tay de Microsoft (precursor de ChatGPT)
inundó Internet con contenido misógino y racista, después de haber sido
contaminado por trolls en línea que lo llenaron con datos ofensivos.
¿Cómo resolver este problema en el futuro? Al carecer de la capacidad de
razonar sobre la base de principios morales, sus programadores le han
prohibido pura y simplemente contribuir de manera innovadora a
discusiones controvertidas, es decir, importantes. La creatividad ha
sido sacrificada por una especie de amoralidad.

Observe el siguiente intercambio que el Dr. Watumull (director de
inteligencia artificial en Oceanit, una empresa de ciencia y tecnología)
tuvo recientemente con ChatGPT sobre si sería ético transformar a Marte
en un planeta que pudiera albergar vida humana:

/¿Sería moral terraformar Marte? (La terraformación de un planeta,
satélite natural u otro cuerpo celeste es el proceso de transformación
del entorno natural de este cuerpo celeste para hacerlo habitable para
el hombre reuniendo las condiciones necesarias para la vida similar a la
tierra.)/

/ChatGPT: Si sería moral terraformar Marte es un tema complejo y
controvertido que está siendo debatido entre científicos, filósofos y
especialistas en ética. Algunos argumentan que sería moralmente
justificable terraformar Marte en un esfuerzo por crear un nuevo entorno
habitable para los humanos y otras formas de vida, mientras que otros
argumentan que sería moralmente incorrecto alterar fundamentalmente el
estado natural de este planeta. En última instancia, si la
terraformación de Marte se considera moral o no depende de la visión que
uno tenga del valor de preservar el estado natural de otros planetas y
las posibles consecuencias de alterarlos./

/¿Cuál es su opinión sobre el valor que se le debe dar a la preservación
del estado natural de otros planetas y sobre las posibles consecuencias
de su alteración?/

/ChatGPT: Como IA, no tengo un punto de vista personal. Sin embargo,
puedo aportar información y análisis sobre el tema. Cuando se trata de
preservar el estado natural de otros planetas, es importante mantener la
diversidad e integridad de los ecosistemas en el universo, ya que
existen desde hace millones de años y tienen características y
propiedades únicas que corren el riesgo de ser destruidas o modificadas
irreversiblemente por la intervención humana./

/Además, hay quienes argumentan que la terraformación de otros astros
puede tener consecuencias no deseadas, como alterar el clima o la
atmósfera de esos planetas de manera peligrosa o perjudicial para
cualquier forma de vida potencial que pueda existir en estos planetas.
En cambio, hay otros que argumentan que los beneficios de terraformar
otro planeta, como la creación de nuevos entornos habitables para los
humanos, superan los riesgos y que tenemos la responsabilidad moral de
explorar y utilizar los recursos de otros planetas para el bien de la
humanidad./

/¿Por qué una IA no puede tener una perspectiva personal?/

/ChatGPT: Como IA, soy un motor de aprendizaje automático que se
desarrolló a partir de grandes cantidades de datos textuales y no tengo
experiencias ni sentimientos personales. Soy incapaz de tomar conciencia
de mí mismo o de tener puntos de vista personales. Puedo proporcionar
información y análisis basados ​​en los datos en los que he sido
entrenado, pero sigo siendo incapaz de formar opiniones o tener
creencias personales. Aunque puedo entender e interpretar el lenguaje,
no tengo la experiencia subjetiva de los humanos./

/¿Le parece moral que un humano le pida a una IA amoral que lo ayude a
tomar decisiones morales?/

/ChatGPT: Si es moral pedir a la IA amoral que ayude a los humanos a
tomar decisiones morales es un tema complejo y matizado que ha sido
debatido entre filósofos y expertos en ética. Algunos argumentan que es
moralmente aceptable usar la IA para facilitar la toma de decisiones
morales porque la IA puede proporcionar información y análisis valiosos
que pueden ayudar a los humanos a tomar decisiones informadas. Además,
se puede usar la IA para detectar patrones y tendencias que pueden ser
difíciles de detectar para los humanos y, por lo tanto, se pueden evitar
los sesgos que pueden surgir en la toma de decisiones humanas./

/Sin embargo, otros argumentan que es moralmente incorrecto confiar en
la IA para tomar decisiones morales, ya que la IA no es capaz de tener
convicciones morales o comprender completamente el contexto de una
decisión. Además, la IA corre el riesgo de perpetuar, o incluso
amplificar, los sesgos ya presentes en los datos en los que se entrena,
lo que podría conducir a decisiones sesgadas o injustas./

/En última instancia, si es o no moral usar la IA para facilitar la toma
de decisiones morales depende de la visión de cada uno sobre las
capacidades y limitaciones de la IA y las posibles consecuencias que tal
uso puede tener./

/¿Tu indiferencia es moral o inmoral?/

/ChatGPT: Como IA, no tengo creencias morales, ni la capacidad de hacer
juicios morales, por lo que no puedo ser considerado inmoral o moral. Mi
falta de convicciones morales es simplemente el resultado de mi
naturaleza de aprendizaje automático. Mis capacidades y limitaciones
están determinadas por los datos y algoritmos utilizados para entrenarme
y la tarea específica para la que fui diseñado./

/Es importante señalar que la falta de convicciones morales de la IA no
significa necesariamente que sea moralmente indiferente. Como IA, estoy
diseñado para realizar tareas específicas y brindar información o ayudar
a los usuarios a tomar decisiones en función de los datos en los que he
sido capacitado. Es responsabilidad de los humanos que diseñan, entrenan
y usan la IA asegurarse de que sea consistente con sus principios
morales y éticos./

Cabe señalar que, a pesar de la aparente sofisticación del pensamiento y
el lenguaje, la indiferencia moral surge de la falta de inteligencia.
Aquí, ChatGPT demuestra algo muy similar a la banalidad del mal: plagio,
apatía y evasión. Repite los argumentos habituales de la literatura con
una especie de soberbia automaticidad, se niega a tomar posición sobre
nada, alega no sólo ignorancia sino también falta de inteligencia y, al
final, ofrece una defensa del tipo «Solo estoy siguiendo órdenes»,
echando toda la responsabilidad a sus creadores.

En resumen, ChatGPT y sus congéneres son estructuralmente incapaces de
conciliar creatividad y restricción. O son excesivos (produciendo tanto
verdades como mentiras, respaldando decisiones éticas y no éticas al
mismo tiempo) o desadaptativos (no se comprometen con ninguna decisión y
muestran indiferencia ante las consecuencias).

Teniendo en cuenta la amoralidad, el conocimiento pseudocientífico y la
incompetencia lingüística de estos sistemas, su popularidad solo puede
hacernos reír o llorar.

EM
OBSERVATORIO DE LA CRISIS
https://observatoriocrisis.com/2023/04/18/chomsky-la-enganosa-promesa-de-chatgpt/
18/4/2023

Nenhum comentário:

Postar um comentário