La inteligencia artificial copa las noticias del sector día tras día y es que se caracteriza por su rapidísimo avance. También destaca la aún más rápida penetración entre el público, su fácil implantación y las sinergias con soluciones tecnológicas existentes. Esto también nos está llevando de forma acelerada a los primeros problemas de la IA, que en este momento están siendo provocadas por ese éxito arrollador, pero que tienen consecuencias en el entorno.
La endogamia, una IA cada vez más imprecisa
El éxito de las IA está siendo a su vez su mayor flaqueza, puesto que Internet se está llenando de contenidos de todo tipo generados por IA y no por humanos. Una investigación ha comprobado como a medida que generan resultados y se siguen entrenando, aquellos aspectos menos comunes van desapareciendo.
Pongamos por ejemplo rosas rojas y rojas amarillas, lo habitual es encontrar más resultados de imágenes de las primeras y pocas de las segundas, con ello la propia IA dará más resultados de rojas que de amarillas, al encontrar cada vez más material que va sobrerrepresentando a las rojas, irán desapareciendo las amarillas en sus resultados. Ahora pensad en lo que esto puede significar para información menos accesible en las búsquedas o para la representación de minorías.
Una posible solución sería tener siempre los primeros resultados con los que se han entrenado las IA siempre disponibles para ir refrescando sus entrenamientos. Sin embargo, incluso con esa base la representación siempre tiende a la baja y hace menos precisos sus resultados.
Fuentes de estudios que advierten de los problemas de estos modelos:
Falsos resultados, la saturación de Internet
Otra de las consecuencias del exceso de éxito de los modelos de generación actuales está en la saturación de sus contenidos en Internet. La cantidad de textos e imágenes que se están creando con estos modelos generativos afecta, más allá de la discutible calidad de estos, a los resultados de los buscadores.
Google, Bing y otros buscadores funcionan con algoritmos que muestran la información según lo que sea relevante. Lo más relevante suele ser aquello que sea más reciente, coincida más con la entrada del usuario y que se repita más en la red. Para ello usan bots llamados crawlers que analizan las páginas y archivos que hay colgados de forma pública en la red.
Lo que sucede cuando hay tanto contenido que se hace con IA, es que en estos buscadores cada vez tiene más peso su contenido. Por eso es normal que haya ocurrido que si en Google buscas “pintor holandés” aparezcan obras reales en imágenes, pero también se filtren obras realizadas por IA. Y esto es algo que a medida que se usen más y más estas herramientas, ocurrirá más a menudo.
De momento para que la credibilidad de los resultados de estas plataformas de búsqueda no se hunda, se están poniendo en manos de usuarios herramientas para evaluar de forma rápida y sencilla el contexto y la credibilidad, con etiquetado para imágenes generadas. Aunque esto no deja de ser un parche que puede no funcionar a medida que los modelos generativos creen imágenes más acertadas.
Llegan las leyes
Esto puede ser un problema o puede ser lo que salve a las IA generativas de morir por su propio éxito. Los pasos más avanzados en materia legislativa se están dando en el Consejo de la UE y tratan de frenar muchos de los problemas anteriores y de otros discutidos muchas veces como su uso.
El primer punto es que las IA deberán indicar si el material empleado tiene derechos de autor, así como informar a los usuarios si están frente a una IA. Además, deberán tener sistemas para evitar que se generen contenidos ilegales. Este último aspecto es el que ha suscitado más reticencias desde el sector, puesto que implica vigilar o limitar los contenidos y conversaciones que los usuarios pueden hacer. En realidad, las limitaciones y vigilancia ya están implementadas, puesto que ya han sido varias las veces en las que se ha engañado a la IA para que mostrara sus tripas.
A todo esto, hay que sumar la clasificación por riesgo, con la que se pretende evaluar a las IA que operen en Europa para minimizar riesgos. Las inteligencias que se considerarán inaceptables son:
- Las que realicen una manipulación cognitiva del comportamiento de las personas, como los juguetes activados por voz.
- Las que clasifiquen a personas.
- Los sistemas biométricos en tiempo real y a distancia.
Por otra parte, las de alto riesgo serán aquellas que afecten negativamente a la seguridad y a los derechos fundamentales. Estas deberán tener autorización de la UE para poder funcionar en el territorio.
Se espera que a finales de año esta directiva sea una realidad. Y seguramente llegue con alguna propuesta inicial de países como Estados Unidos y Canadá, preocupados también por las consecuencias y por la privacidad.
¿Morir de éxito?
Parece que el famoso dicho de morir de éxito se puede aplicar a las IA, siempre y cuando no tomen decisiones que reviertan estos problemas que cada vez van a más.
¿Quieres evitar que tu negocio pueda morir de éxito? Usa MGest ERP
Si quieres tener a mano siempre los datos de tu negocio, quieres gestionar su contabilidad con facilidad y además tener disponibles los contactos de tus clientes, prueba MGest ERP, el programa de gestión definitivo que se adapta a tus necesidades. Pruébalo gratuitamente rellenando el formulario de la versión MGest Lite.