Este lunes 3 de julio, integrantes del Partido Pirata de Chile levantaron una solicitud al Consejo Para La Transparencia (CPLT), requiriendo información sobre el uso de Inteligencia Artificial en el Consejo Constitucional. Como consigna Radio Universidad de Chile, “la Secretaría de Participación Ciudadana, liderada por la Universidad de Chile y la Pontificia Universidad Católica, recurrió a la inteligencia artificial para que los resultados de la participación sean entregados a tiempo y puedan ser considerados en el debate constitucional” (1). Sin embargo, ni el articulo mencionado, ni la Secretaria de Participación Ciudadana, hacen mención de cuáles son las herramientas de IA a utilizar.
Miembros del Partido Pirata han destacado la importancia de comprender este punto. Las herramientas de IA han generado gran controversia en los últimos meses, especialmente con la introducción de ChatGPT de OpenAI. “Sin embargo, este tipo de modelos de inteligencia artificial no resuelven todos los problemas que se presentan. Por ejemplo, ChatGPT no interactúa mediante voz, y los modelos grandes de lenguaje (conocidos como LLM) están principalmente entrenados en el uso del idioma inglés, chino o español estándar, y carecen de enfoque contextual”, agregaron. En este sentido, enfatizaron en que estos dos factores representan desafíos importantes y complejos al evaluar el uso de IA en un contexto tan sensible como la síntesis de contenido político, que está cargado de contexto historiográfico y cultural. Y si a esto se le suma un uso importante de figuras literarias y expresiones particulares del español hablado en Chile, queda clara la necesidad de una mayor supervisión sobre la herramienta. Modelos mal entrenados o poco ajustados a la sensibilidad requerida pueden arrojar resultados diferentes a los esperados y deseables en una tarea de esta magnitud.
“Basta con revisar el uso de las herramientas actuales: hay investigadores que utilizan nubes de palabras como herramienta, pues creen que con ello hacen un buen resumen de un texto; no obstante, es sabido que las palabras menos recurrentes de un texto usualmente son las que más aportan al análisis. Con esto no nos referimos a las stop-words (o palabras funcionales sin contenido semántico, como preposiciones, conjunciones, artículos), sino a que el gran flujo de información semántica suele integrarse en una unidad léxica menos recurrente”, señaló un integrante del Partido, experto en minería de textos. “Los modelos de procesamiento de texto no incorporan los significados connotativos, que suelen venir del contexto histórico y social en que se generan y circulan los textos. En ese espacio, de vital importancia para la discusión política, las herramientas computacionales aún son extremadamente falibles. Por ello es hasta peligroso que no se use la herramienta adecuada, y que sus resultados no se interpreten de forma científica interdisciplinaria, en la que se integre la interpretación desde la comunicación política, la lingüística, la ciencia política, entre otras. Y ahora mismo no sabemos qué tan superficiales van a ser las herramientas que se usen. Por ejemplo, no es lo mismo decir “compañero” antes o después del Golpe de Estado de 1973, y una máquina no entiende esa implicancia histórico-política”, agregó.
Si bien no se puede ignorar la tendencia de los modelos de lenguaje a generar “alucinaciones” o respuestas inventadas, en las que no existe una respuesta concreta, los solicitantes hicieron hincapié en obtener informaciones claras. “Todo esto adquiere suma relevancia en un contexto político convulsionado como el actual. El mal uso de herramientas tecnológicas puede ser utilizado como un arma en posturas tecnicistas, al afirmar que las respuestas proporcionadas por un sistema tecnológico son siempre incuestionables. La opacidad que rodea a la IA es considerable y la educación y alfabetización al respecto son mínimas”, señalaron.
El uso de herramientas tecnológicas se ha vuelto indispensable para el procesamiento de grandes volúmenes de datos. Sin embargo, es de vital importancia garantizar un tratamiento ético de dichos datos, así como un entrenamiento lo más imparcial posible de los modelos de aprendizaje automático e inteligencia artificial que se utilicen, para evitar interpretaciones erróneas de los datos en cuestión. Se han observado graves errores en el uso de herramientas como ChatGPT en el ámbito legal, los cuales no son admisibles en una instancia tan relevante como el Consejo Constitucional. Por estas razones, el Partido Pirata de Chile defiende la supervisión civil de los procesos democráticos y administrativos que proponen el uso de tecnologías no probadas.
(1) https://radio.uchile.cl/2023/06/17/inteligencia-artificial-al-servicio-del-proceso-constitucional-y-la-participacion-ciudadana/
Este lunes 3 de julio, integrantes del Partido Pirata de Chile levantaron una solicitud al Consejo Para La Transparencia (CPLT), requiriendo información sobre el uso de Inteligencia Artificial en el Consejo Constitucional. Como consigna Radio Universidad de Chile, “la Secretaría de Participación Ciudadana, liderada por la Universidad de Chile y la Pontificia Universidad Católica, recurrió a la inteligencia artificial para que los resultados de la participación sean entregados a tiempo y puedan ser considerados en el debate constitucional” (1). Sin embargo, ni el articulo mencionado, ni la Secretaria de Participación Ciudadana, hacen mención de cuáles son las herramientas de IA a utilizar.
Miembros del Partido Pirata han destacado la importancia de comprender este punto. Las herramientas de IA han generado gran controversia en los últimos meses, especialmente con la introducción de ChatGPT de OpenAI. “Sin embargo, este tipo de modelos de inteligencia artificial no resuelven todos los problemas que se presentan. Por ejemplo, ChatGPT no interactúa mediante voz, y los modelos grandes de lenguaje (conocidos como LLM) están principalmente entrenados en el uso del idioma inglés, chino o español estándar, y carecen de enfoque contextual”, agregaron. En este sentido, enfatizaron en que estos dos factores representan desafíos importantes y complejos al evaluar el uso de IA en un contexto tan sensible como la síntesis de contenido político, que está cargado de contexto historiográfico y cultural. Y si a esto se le suma un uso importante de figuras literarias y expresiones particulares del español hablado en Chile, queda clara la necesidad de una mayor supervisión sobre la herramienta. Modelos mal entrenados o poco ajustados a la sensibilidad requerida pueden arrojar resultados diferentes a los esperados y deseables en una tarea de esta magnitud.
“Basta con revisar el uso de las herramientas actuales: hay investigadores que utilizan nubes de palabras como herramienta, pues creen que con ello hacen un buen resumen de un texto; no obstante, es sabido que las palabras menos recurrentes de un texto usualmente son las que más aportan al análisis. Con esto no nos referimos a las stop-words (o palabras funcionales sin contenido semántico, como preposiciones, conjunciones, artículos), sino a que el gran flujo de información semántica suele integrarse en una unidad léxica menos recurrente”, señaló un integrante del Partido, experto en minería de textos. “Los modelos de procesamiento de texto no incorporan los significados connotativos, que suelen venir del contexto histórico y social en que se generan y circulan los textos. En ese espacio, de vital importancia para la discusión política, las herramientas computacionales aún son extremadamente falibles. Por ello es hasta peligroso que no se use la herramienta adecuada, y que sus resultados no se interpreten de forma científica interdisciplinaria, en la que se integre la interpretación desde la comunicación política, la lingüística, la ciencia política, entre otras. Y ahora mismo no sabemos qué tan superficiales van a ser las herramientas que se usen. Por ejemplo, no es lo mismo decir “compañero” antes o después del Golpe de Estado de 1973, y una máquina no entiende esa implicancia histórico-política”, agregó.
Si bien no se puede ignorar la tendencia de los modelos de lenguaje a generar “alucinaciones” o respuestas inventadas, en las que no existe una respuesta concreta, los solicitantes hicieron hincapié en obtener informaciones claras. “Todo esto adquiere suma relevancia en un contexto político convulsionado como el actual. El mal uso de herramientas tecnológicas puede ser utilizado como un arma en posturas tecnicistas, al afirmar que las respuestas proporcionadas por un sistema tecnológico son siempre incuestionables. La opacidad que rodea a la IA es considerable y la educación y alfabetización al respecto son mínimas”, señalaron.
El uso de herramientas tecnológicas se ha vuelto indispensable para el procesamiento de grandes volúmenes de datos. Sin embargo, es de vital importancia garantizar un tratamiento ético de dichos datos, así como un entrenamiento lo más imparcial posible de los modelos de aprendizaje automático e inteligencia artificial que se utilicen, para evitar interpretaciones erróneas de los datos en cuestión. Se han observado graves errores en el uso de herramientas como ChatGPT en el ámbito legal, los cuales no son admisibles en una instancia tan relevante como el Consejo Constitucional. Por estas razones, el Partido Pirata de Chile defiende la supervisión civil de los procesos democráticos y administrativos que proponen el uso de tecnologías no probadas.
(1) https://radio.uchile.cl/2023/06/17/inteligencia-artificial-al-servicio-del-proceso-constitucional-y-la-participacion-ciudadana/
Compartir esto: