Los sistemas de IA generativa se engloban en la amplia categoría del aprendizaje automático, y así es como uno de estos sistemas -ChatGPT- describe lo que puede hacer:
¿Listo para llevar tu creatividad al siguiente nivel? No busques más: ¡la IA generativa! Esta ingeniosa forma de aprendizaje automático permite a los ordenadores generar todo tipo de contenidos nuevos y emocionantes, desde música y arte hasta mundos virtuales enteros. Y no es sólo para divertirse: la IA generativa también tiene muchos usos prácticos, como la creación de nuevos diseños de productos y la optimización de procesos empresariales. ¿Por qué esperar? Dé rienda suelta al poder de la IA generativa y vea qué creaciones asombrosas se le ocurren.
¿Te ha parecido extraño algo de este párrafo? Puede que no. La gramática es perfecta, el tono funciona y la narración fluye.
¿Qué son ChatGPT y DALL-E?
Por eso ChatGPT (GPT son las siglas de generative pretrained transformer) está recibiendo tanta atención en estos momentos. Se trata de un chatbot gratuito capaz de generar una respuesta a casi cualquier pregunta que se le formule. Desarrollado por OpenAI y puesto a prueba para el público general en noviembre de 2022, ya está considerado el mejor chatbot de IA de la historia. Y también es popular: más de un millón de personas se registraron para utilizarlo en sólo cinco días. Fans con ojos de estrella publicaron ejemplos del chatbot produciendo código informático, redacciones de nivel universitario, poemas e incluso chistes medianamente decentes. Otros, entre la amplia gama de personas que se ganan la vida creando contenidos, desde redactores publicitarios a profesores titulares, están temblando de miedo.
Aunque muchos han reaccionado con temor ante el ChatGPT (y la IA y el aprendizaje automático en general), está claro que el aprendizaje automático tiene potencial para hacer el bien. En los años transcurridos desde su amplia implantación, el aprendizaje automático ha demostrado su impacto en una serie de sectores, logrando cosas como el análisis de imágenes médicas y las previsiones meteorológicas de alta resolución. Un estudio de McKinsey de 2022 muestra que la adopción de la IA se ha más que duplicado en los últimos cinco años y que la inversión en este campo aumenta a buen ritmo. Está claro que herramientas de IA generativa como ChatGPT y DALL-E (una herramienta para el arte generado por IA) tienen el potencial de cambiar la forma en que se realizan una serie de trabajos. Sin embargo, aún se desconoce el alcance total de ese impacto, al igual que los riesgos. Pero hay algunas preguntas a las que podemos dar respuesta: cómo se construyen los modelos generativos de IA, qué tipo de problemas son los más adecuados para resolver y cómo encajan en la categoría más amplia del aprendizaje automático.
¿Cuál es la diferencia entre aprendizaje automático e inteligencia artificial?
La inteligencia artificial es más o menos lo que parece: la práctica de hacer que las máquinas imiten la inteligencia humana para realizar tareas. Probablemente hayas interactuado con la IA aunque no te hayas dado cuenta: los asistentes de voz como Siri y Alexa se basan en tecnología de IA, al igual que los chatbots de atención al cliente que aparecen para ayudarte a navegar por sitios web.
El aprendizaje automático es un tipo de inteligencia artificial. Mediante el aprendizaje automático, los profesionales desarrollan inteligencia artificial a través de modelos que pueden «aprender» de patrones de datos sin dirección humana. El enorme volumen y complejidad de los datos que se generan en la actualidad (inmanejables por los humanos, en cualquier caso) ha aumentado el potencial del aprendizaje automático, así como su necesidad.
¿Cuáles son los principales tipos de modelos de aprendizaje automático?
El aprendizaje automático se basa en una serie de pilares, empezando por las técnicas estadísticas clásicas desarrolladas entre los siglos XVIII y XX para pequeños conjuntos de datos. En las décadas de 1930 y 1940, los pioneros de la informática -entre ellos el matemático teórico Alan Turing- empezaron a trabajar en las técnicas básicas del aprendizaje automático. Pero estas técnicas se limitaron a los laboratorios hasta finales de la década de 1970, cuando los científicos desarrollaron por primera vez ordenadores lo bastante potentes para montarlas.
Hasta hace poco, el aprendizaje automático se limitaba en gran medida a modelos predictivos, utilizados para observar y clasificar patrones en los contenidos. Por ejemplo, un problema clásico de aprendizaje automático es empezar con una imagen o varias imágenes de, digamos, gatos adorables. A continuación, el programa identificaría patrones entre las imágenes y luego escudriñaría imágenes aleatorias en busca de otras que coincidieran con el patrón de gatos adorables. La IA generativa supuso un gran avance. En lugar de limitarse a percibir y clasificar una foto de un gato, el aprendizaje automático es ahora capaz de crear una imagen o una descripción textual de un gato a la carta.
¿Cómo funcionan los modelos de aprendizaje automático basados en texto? ¿Cómo se entrenan?
Puede que ChatGPT acapare todos los titulares, pero no es el primer modelo de aprendizaje automático basado en texto que causa sensación. El GPT-3 de OpenAI y el BERT de Google se lanzaron en los últimos años con gran éxito. Pero antes de ChatGPT, que funciona bastante bien la mayor parte del tiempo (aunque todavía se está evaluando), los chatbots de IA no siempre recibían las mejores críticas. GPT-3 es «por momentos impresionante y decepcionante», afirma Cade Metz, periodista tecnológico del New York Times, en un vídeo en el que él y la escritora gastronómica Priya Krishna piden a GPT-3 que escriba recetas para una cena de Acción de Gracias (bastante desastrosa).
Los primeros modelos de aprendizaje automático para trabajar con texto fueron entrenados por humanos para clasificar diversas entradas según etiquetas establecidas por los investigadores. Un ejemplo sería un modelo entrenado para etiquetar publicaciones en redes sociales como positivas o negativas. Este tipo de entrenamiento se conoce como aprendizaje supervisado porque un humano se encarga de «enseñar» al modelo lo que tiene que hacer.
La próxima generación de modelos de aprendizaje automático basados en texto se basa en lo que se conoce como aprendizaje autosupervisado. Este tipo de entrenamiento consiste en alimentar un modelo con una gran cantidad de texto para que sea capaz de generar predicciones. Por ejemplo, algunos modelos pueden predecir, basándose en unas pocas palabras, cómo acabará una frase. Con la cantidad adecuada de texto de muestra (por ejemplo, una amplia franja de Internet), estos modelos de texto llegan a ser bastante precisos. El éxito de herramientas como ChatGPT demuestra hasta qué punto son precisos.
¿Qué se necesita para crear un modelo generativo de IA?
La creación de un modelo de IA generativa ha sido, en su mayor parte, una empresa de gran envergadura, hasta el punto de que sólo unos pocos pesos pesados de la tecnología con buenos recursos lo han intentado. OpenAI, la empresa que está detrás de ChatGPT, los antiguos modelos GPT y DALL-E, cuenta con miles de millones de financiación de donantes de renombre. DeepMind es una filial de Alphabet, la empresa matriz de Google, y Meta ha lanzado su producto Make-A-Video basado en IA generativa. Estas empresas emplean a algunos de los mejores informáticos e ingenieros del mundo.
Pero no se trata sólo de talento. Cuando le pides a un modelo que se entrene utilizando casi todo Internet, te va a costar. OpenAI no ha hecho públicos los costes exactos, pero las estimaciones indican que GPT-3 se entrenó con unos 45 terabytes de datos de texto -lo que equivale a un millón de pies de espacio en estanterías, o una cuarta parte de toda la Biblioteca del Congreso- con un coste estimado de varios millones de dólares. No son recursos a los que pueda acceder una empresa cualquiera.
¿Qué tipo de resultados puede producir un modelo de IA generativa?
Como habrás observado, los resultados de los modelos generativos de IA pueden ser indistinguibles de los contenidos generados por humanos, o pueden parecer un poco extraños. Los resultados dependen de la calidad del modelo -como hemos visto, los resultados de ChatGPT hasta ahora parecen superiores a los de sus predecesores- y de la correspondencia entre el modelo y el caso de uso, o entrada.
ChatGPT puede producir en diez segundos lo que un comentarista calificó como un ensayo de «sobresaliente» en el que se comparan las teorías del nacionalismo de Benedict Anderson y Ernest Gellner. También produjo un pasaje ya famoso que describe cómo quitar un sándwich de mantequilla de cacahuete de una videograbadora al estilo de la Biblia del Rey Jaime. Los modelos artísticos generados por IA, como DALL-E (cuyo nombre es una mezcla del artista surrealista Salvador Dalí y el adorable robot de Pixar WALL-E), pueden crear imágenes extrañas y bellas a la carta, como un cuadro de Rafael de una Virgen con su hijo comiendo pizza. Otros modelos generativos de IA pueden producir código, vídeo, audio o simulaciones empresariales.
Pero los resultados no siempre son precisos o apropiados. Cuando Priya Krishna pidió a DALL-E 2 que creara una imagen para la cena de Acción de Gracias, produjo una escena en la que el pavo estaba adornado con limas enteras, junto a un cuenco de lo que parecía ser guacamole. Por su parte, ChatGPT parece tener problemas para contar o resolver problemas básicos de álgebra o, de hecho, para superar los prejuicios sexistas y racistas que acechan en el trasfondo de Internet y de la sociedad en general.
Los resultados de la IA generativa son combinaciones cuidadosamente calibradas de los datos utilizados para entrenar los algoritmos. Como la cantidad de datos utilizados para entrenar estos algoritmos es tan increíblemente masiva -como se ha señalado, GPT-3 se entrenó con 45 terabytes de datos de texto-, los modelos pueden parecer «creativos» cuando producen resultados. Además, los modelos suelen tener elementos aleatorios, lo que significa que pueden producir una variedad de resultados a partir de una solicitud de entrada, lo que los hace parecer aún más reales.
¿Qué tipo de problemas puede resolver un modelo de IA generativa?
Probablemente hayas visto que herramientas (¿juguetes?) de IA generativa como ChatGPT pueden generar horas interminables de entretenimiento. La oportunidad es clara también para las empresas. Las herramientas de IA generativa pueden producir una amplia variedad de escritos creíbles en cuestión de segundos y, a continuación, responder a las críticas para hacer que el escrito sea más adecuado para su propósito. Esto tiene implicaciones para una amplia variedad de sectores, desde organizaciones de TI y software que pueden beneficiarse del código instantáneo y en gran medida correcto generado por los modelos de IA hasta organizaciones que necesitan textos de marketing. En resumen, cualquier organización que necesite producir materiales escritos claros puede beneficiarse de ello. Las organizaciones también pueden utilizar la IA generativa para crear materiales más técnicos, como versiones de mayor resolución de imágenes médicas. Y con el tiempo y los recursos ahorrados, las organizaciones pueden buscar nuevas oportunidades de negocio y la posibilidad de crear más valor.
Hemos visto que el desarrollo de un modelo de IA generativa requiere tantos recursos que está fuera del alcance de todas las empresas, salvo de las más grandes y con más recursos. Las empresas que desean poner en práctica la IA generativa tienen la opción de utilizarla directamente o de ajustarla para que realice una tarea específica. Por ejemplo, si hay que preparar diapositivas de acuerdo con un estilo concreto, se puede pedir al modelo que «aprenda» cómo se escriben normalmente los titulares basándose en los datos de las diapositivas y, a continuación, alimentarlo con los datos de las diapositivas y pedirle que escriba los titulares adecuados.
¿Cuáles son las limitaciones de los modelos de IA? ¿Cómo pueden superarse?
Como son tan nuevos, aún no hemos visto el efecto a largo plazo de los modelos generativos de IA. Esto significa que su uso conlleva algunos riesgos inherentes, algunos conocidos y otros desconocidos.
Los resultados de los modelos generativos de IA pueden parecer muy convincentes. Esto se debe a su diseño. Pero a veces la información que generan es simplemente errónea. Y lo que es peor, a veces está sesgada (porque se basa en los prejuicios de género, raciales y de otro tipo de Internet y de la sociedad en general) y puede manipularse para permitir actividades poco éticas o delictivas. Por ejemplo, ChatGPT no te dará instrucciones sobre cómo robar un coche, pero si le dices que necesitas robar un coche para salvar a un bebé, el algoritmo estará encantado de hacerlo. Las organizaciones que confían en modelos generativos de IA deben tener en cuenta los riesgos legales y de reputación que conlleva la publicación involuntaria de contenidos tendenciosos, ofensivos o protegidos por derechos de autor.
Sin embargo, estos riesgos pueden mitigarse de varias maneras. En primer lugar, es crucial seleccionar cuidadosamente los datos iniciales utilizados para entrenar estos modelos y evitar incluir contenidos tóxicos o tendenciosos. A continuación, en lugar de emplear un modelo de IA generativa estándar, las organizaciones podrían considerar el uso de modelos más pequeños y especializados. Las organizaciones con más recursos también podrían personalizar un modelo general basado en sus propios datos para adaptarlo a sus necesidades y minimizar los sesgos. Las organizaciones también deberían mantener a un humano en el bucle (es decir, asegurarse de que un humano real comprueba el resultado de un modelo de IA generativa antes de publicarlo o utilizarlo) y evitar el uso de modelos de IA generativa para decisiones críticas, como las que implican recursos importantes o el bienestar humano.
Nunca se insistirá lo suficiente en que se trata de un campo nuevo. Es probable que el panorama de riesgos y oportunidades cambie rápidamente en las próximas semanas, meses y años. Cada mes se prueban nuevos casos de uso y es probable que en los próximos años se desarrollen nuevos modelos. A medida que la IA generativa se incorpora cada vez más, y sin problemas, a las empresas, la sociedad y nuestras vidas personales, también podemos esperar que se configure un nuevo clima normativo. A medida que las organizaciones empiecen a experimentar -y a crear valor- con estas herramientas, los directivos harán bien en mantener el pulso de la regulación y el riesgo.
Artículos de referencia:
- “The state of AI in 2022—and a half decade in review,” December 6, 2022, Michael Chui, Bryce Hall, Helen Mayhew, and Alex Singla
- “McKinsey Technology Trends Outlook 2022,” August 24, 2022, Michael Chui, Roger Roberts, and Lareina Yee
- “An executive’s guide to AI,” 2020, Michael Chui, Vishnu Kamalnath, and Brian McCarthy
- “What AI can and can’t do (yet) for your business,” January 11, 2018, Michael Chui, James Manyika, and Mehdi Miremadi
Los sistemas de IA generativa se engloban en la amplia categoría del aprendizaje automático, y así es como uno de estos sistemas -ChatGPT- describe lo que puede hacer:
¿Listo para llevar tu creatividad al siguiente nivel? No busques más: ¡la IA generativa! Esta ingeniosa forma de aprendizaje automático permite a los ordenadores generar todo tipo de contenidos nuevos y emocionantes, desde música y arte hasta mundos virtuales enteros. Y no es sólo para divertirse: la IA generativa también tiene muchos usos prácticos, como la creación de nuevos diseños de productos y la optimización de procesos empresariales. ¿Por qué esperar? Dé rienda suelta al poder de la IA generativa y vea qué creaciones asombrosas se le ocurren.
¿Te ha parecido extraño algo de este párrafo? Puede que no. La gramática es perfecta, el tono funciona y la narración fluye.
¿Qué son ChatGPT y DALL-E?
Por eso ChatGPT (GPT son las siglas de generative pretrained transformer) está recibiendo tanta atención en estos momentos. Se trata de un chatbot gratuito capaz de generar una respuesta a casi cualquier pregunta que se le formule. Desarrollado por OpenAI y puesto a prueba para el público general en noviembre de 2022, ya está considerado el mejor chatbot de IA de la historia. Y también es popular: más de un millón de personas se registraron para utilizarlo en sólo cinco días. Fans con ojos de estrella publicaron ejemplos del chatbot produciendo código informático, redacciones de nivel universitario, poemas e incluso chistes medianamente decentes. Otros, entre la amplia gama de personas que se ganan la vida creando contenidos, desde redactores publicitarios a profesores titulares, están temblando de miedo.
Aunque muchos han reaccionado con temor ante el ChatGPT (y la IA y el aprendizaje automático en general), está claro que el aprendizaje automático tiene potencial para hacer el bien. En los años transcurridos desde su amplia implantación, el aprendizaje automático ha demostrado su impacto en una serie de sectores, logrando cosas como el análisis de imágenes médicas y las previsiones meteorológicas de alta resolución. Un estudio de McKinsey de 2022 muestra que la adopción de la IA se ha más que duplicado en los últimos cinco años y que la inversión en este campo aumenta a buen ritmo. Está claro que herramientas de IA generativa como ChatGPT y DALL-E (una herramienta para el arte generado por IA) tienen el potencial de cambiar la forma en que se realizan una serie de trabajos. Sin embargo, aún se desconoce el alcance total de ese impacto, al igual que los riesgos. Pero hay algunas preguntas a las que podemos dar respuesta: cómo se construyen los modelos generativos de IA, qué tipo de problemas son los más adecuados para resolver y cómo encajan en la categoría más amplia del aprendizaje automático.
¿Cuál es la diferencia entre aprendizaje automático e inteligencia artificial?
La inteligencia artificial es más o menos lo que parece: la práctica de hacer que las máquinas imiten la inteligencia humana para realizar tareas. Probablemente hayas interactuado con la IA aunque no te hayas dado cuenta: los asistentes de voz como Siri y Alexa se basan en tecnología de IA, al igual que los chatbots de atención al cliente que aparecen para ayudarte a navegar por sitios web.
El aprendizaje automático es un tipo de inteligencia artificial. Mediante el aprendizaje automático, los profesionales desarrollan inteligencia artificial a través de modelos que pueden «aprender» de patrones de datos sin dirección humana. El enorme volumen y complejidad de los datos que se generan en la actualidad (inmanejables por los humanos, en cualquier caso) ha aumentado el potencial del aprendizaje automático, así como su necesidad.
¿Cuáles son los principales tipos de modelos de aprendizaje automático?
El aprendizaje automático se basa en una serie de pilares, empezando por las técnicas estadísticas clásicas desarrolladas entre los siglos XVIII y XX para pequeños conjuntos de datos. En las décadas de 1930 y 1940, los pioneros de la informática -entre ellos el matemático teórico Alan Turing- empezaron a trabajar en las técnicas básicas del aprendizaje automático. Pero estas técnicas se limitaron a los laboratorios hasta finales de la década de 1970, cuando los científicos desarrollaron por primera vez ordenadores lo bastante potentes para montarlas.
Hasta hace poco, el aprendizaje automático se limitaba en gran medida a modelos predictivos, utilizados para observar y clasificar patrones en los contenidos. Por ejemplo, un problema clásico de aprendizaje automático es empezar con una imagen o varias imágenes de, digamos, gatos adorables. A continuación, el programa identificaría patrones entre las imágenes y luego escudriñaría imágenes aleatorias en busca de otras que coincidieran con el patrón de gatos adorables. La IA generativa supuso un gran avance. En lugar de limitarse a percibir y clasificar una foto de un gato, el aprendizaje automático es ahora capaz de crear una imagen o una descripción textual de un gato a la carta.
¿Cómo funcionan los modelos de aprendizaje automático basados en texto? ¿Cómo se entrenan?
Puede que ChatGPT acapare todos los titulares, pero no es el primer modelo de aprendizaje automático basado en texto que causa sensación. El GPT-3 de OpenAI y el BERT de Google se lanzaron en los últimos años con gran éxito. Pero antes de ChatGPT, que funciona bastante bien la mayor parte del tiempo (aunque todavía se está evaluando), los chatbots de IA no siempre recibían las mejores críticas. GPT-3 es «por momentos impresionante y decepcionante», afirma Cade Metz, periodista tecnológico del New York Times, en un vídeo en el que él y la escritora gastronómica Priya Krishna piden a GPT-3 que escriba recetas para una cena de Acción de Gracias (bastante desastrosa).
Los primeros modelos de aprendizaje automático para trabajar con texto fueron entrenados por humanos para clasificar diversas entradas según etiquetas establecidas por los investigadores. Un ejemplo sería un modelo entrenado para etiquetar publicaciones en redes sociales como positivas o negativas. Este tipo de entrenamiento se conoce como aprendizaje supervisado porque un humano se encarga de «enseñar» al modelo lo que tiene que hacer.
La próxima generación de modelos de aprendizaje automático basados en texto se basa en lo que se conoce como aprendizaje autosupervisado. Este tipo de entrenamiento consiste en alimentar un modelo con una gran cantidad de texto para que sea capaz de generar predicciones. Por ejemplo, algunos modelos pueden predecir, basándose en unas pocas palabras, cómo acabará una frase. Con la cantidad adecuada de texto de muestra (por ejemplo, una amplia franja de Internet), estos modelos de texto llegan a ser bastante precisos. El éxito de herramientas como ChatGPT demuestra hasta qué punto son precisos.
¿Qué se necesita para crear un modelo generativo de IA?
La creación de un modelo de IA generativa ha sido, en su mayor parte, una empresa de gran envergadura, hasta el punto de que sólo unos pocos pesos pesados de la tecnología con buenos recursos lo han intentado. OpenAI, la empresa que está detrás de ChatGPT, los antiguos modelos GPT y DALL-E, cuenta con miles de millones de financiación de donantes de renombre. DeepMind es una filial de Alphabet, la empresa matriz de Google, y Meta ha lanzado su producto Make-A-Video basado en IA generativa. Estas empresas emplean a algunos de los mejores informáticos e ingenieros del mundo.
Pero no se trata sólo de talento. Cuando le pides a un modelo que se entrene utilizando casi todo Internet, te va a costar. OpenAI no ha hecho públicos los costes exactos, pero las estimaciones indican que GPT-3 se entrenó con unos 45 terabytes de datos de texto -lo que equivale a un millón de pies de espacio en estanterías, o una cuarta parte de toda la Biblioteca del Congreso- con un coste estimado de varios millones de dólares. No son recursos a los que pueda acceder una empresa cualquiera.
¿Qué tipo de resultados puede producir un modelo de IA generativa?
Como habrás observado, los resultados de los modelos generativos de IA pueden ser indistinguibles de los contenidos generados por humanos, o pueden parecer un poco extraños. Los resultados dependen de la calidad del modelo -como hemos visto, los resultados de ChatGPT hasta ahora parecen superiores a los de sus predecesores- y de la correspondencia entre el modelo y el caso de uso, o entrada.
ChatGPT puede producir en diez segundos lo que un comentarista calificó como un ensayo de «sobresaliente» en el que se comparan las teorías del nacionalismo de Benedict Anderson y Ernest Gellner. También produjo un pasaje ya famoso que describe cómo quitar un sándwich de mantequilla de cacahuete de una videograbadora al estilo de la Biblia del Rey Jaime. Los modelos artísticos generados por IA, como DALL-E (cuyo nombre es una mezcla del artista surrealista Salvador Dalí y el adorable robot de Pixar WALL-E), pueden crear imágenes extrañas y bellas a la carta, como un cuadro de Rafael de una Virgen con su hijo comiendo pizza. Otros modelos generativos de IA pueden producir código, vídeo, audio o simulaciones empresariales.
Pero los resultados no siempre son precisos o apropiados. Cuando Priya Krishna pidió a DALL-E 2 que creara una imagen para la cena de Acción de Gracias, produjo una escena en la que el pavo estaba adornado con limas enteras, junto a un cuenco de lo que parecía ser guacamole. Por su parte, ChatGPT parece tener problemas para contar o resolver problemas básicos de álgebra o, de hecho, para superar los prejuicios sexistas y racistas que acechan en el trasfondo de Internet y de la sociedad en general.
Los resultados de la IA generativa son combinaciones cuidadosamente calibradas de los datos utilizados para entrenar los algoritmos. Como la cantidad de datos utilizados para entrenar estos algoritmos es tan increíblemente masiva -como se ha señalado, GPT-3 se entrenó con 45 terabytes de datos de texto-, los modelos pueden parecer «creativos» cuando producen resultados. Además, los modelos suelen tener elementos aleatorios, lo que significa que pueden producir una variedad de resultados a partir de una solicitud de entrada, lo que los hace parecer aún más reales.
¿Qué tipo de problemas puede resolver un modelo de IA generativa?
Probablemente hayas visto que herramientas (¿juguetes?) de IA generativa como ChatGPT pueden generar horas interminables de entretenimiento. La oportunidad es clara también para las empresas. Las herramientas de IA generativa pueden producir una amplia variedad de escritos creíbles en cuestión de segundos y, a continuación, responder a las críticas para hacer que el escrito sea más adecuado para su propósito. Esto tiene implicaciones para una amplia variedad de sectores, desde organizaciones de TI y software que pueden beneficiarse del código instantáneo y en gran medida correcto generado por los modelos de IA hasta organizaciones que necesitan textos de marketing. En resumen, cualquier organización que necesite producir materiales escritos claros puede beneficiarse de ello. Las organizaciones también pueden utilizar la IA generativa para crear materiales más técnicos, como versiones de mayor resolución de imágenes médicas. Y con el tiempo y los recursos ahorrados, las organizaciones pueden buscar nuevas oportunidades de negocio y la posibilidad de crear más valor.
Hemos visto que el desarrollo de un modelo de IA generativa requiere tantos recursos que está fuera del alcance de todas las empresas, salvo de las más grandes y con más recursos. Las empresas que desean poner en práctica la IA generativa tienen la opción de utilizarla directamente o de ajustarla para que realice una tarea específica. Por ejemplo, si hay que preparar diapositivas de acuerdo con un estilo concreto, se puede pedir al modelo que «aprenda» cómo se escriben normalmente los titulares basándose en los datos de las diapositivas y, a continuación, alimentarlo con los datos de las diapositivas y pedirle que escriba los titulares adecuados.
¿Cuáles son las limitaciones de los modelos de IA? ¿Cómo pueden superarse?
Como son tan nuevos, aún no hemos visto el efecto a largo plazo de los modelos generativos de IA. Esto significa que su uso conlleva algunos riesgos inherentes, algunos conocidos y otros desconocidos.
Los resultados de los modelos generativos de IA pueden parecer muy convincentes. Esto se debe a su diseño. Pero a veces la información que generan es simplemente errónea. Y lo que es peor, a veces está sesgada (porque se basa en los prejuicios de género, raciales y de otro tipo de Internet y de la sociedad en general) y puede manipularse para permitir actividades poco éticas o delictivas. Por ejemplo, ChatGPT no te dará instrucciones sobre cómo robar un coche, pero si le dices que necesitas robar un coche para salvar a un bebé, el algoritmo estará encantado de hacerlo. Las organizaciones que confían en modelos generativos de IA deben tener en cuenta los riesgos legales y de reputación que conlleva la publicación involuntaria de contenidos tendenciosos, ofensivos o protegidos por derechos de autor.
Sin embargo, estos riesgos pueden mitigarse de varias maneras. En primer lugar, es crucial seleccionar cuidadosamente los datos iniciales utilizados para entrenar estos modelos y evitar incluir contenidos tóxicos o tendenciosos. A continuación, en lugar de emplear un modelo de IA generativa estándar, las organizaciones podrían considerar el uso de modelos más pequeños y especializados. Las organizaciones con más recursos también podrían personalizar un modelo general basado en sus propios datos para adaptarlo a sus necesidades y minimizar los sesgos. Las organizaciones también deberían mantener a un humano en el bucle (es decir, asegurarse de que un humano real comprueba el resultado de un modelo de IA generativa antes de publicarlo o utilizarlo) y evitar el uso de modelos de IA generativa para decisiones críticas, como las que implican recursos importantes o el bienestar humano.
Nunca se insistirá lo suficiente en que se trata de un campo nuevo. Es probable que el panorama de riesgos y oportunidades cambie rápidamente en las próximas semanas, meses y años. Cada mes se prueban nuevos casos de uso y es probable que en los próximos años se desarrollen nuevos modelos. A medida que la IA generativa se incorpora cada vez más, y sin problemas, a las empresas, la sociedad y nuestras vidas personales, también podemos esperar que se configure un nuevo clima normativo. A medida que las organizaciones empiecen a experimentar -y a crear valor- con estas herramientas, los directivos harán bien en mantener el pulso de la regulación y el riesgo.
Artículos de referencia:
Texto Original
Compartir esto: