Cuatro riesgos de la Gen AI (inteligencia artificial generativa) que toda empresa debe conocer

5 min
La forma de un cerebro, ilustrada con un diseño de placa de circuitos azul sobre un fondo negro.

Según un reciente informe de McKinsey, «la IA generativa tiene el potencial de cambiar la anatomía del trabajo» y «aumentará sustancialmente la productividad laboral en toda la economía». En el momento de redactar este artículo, han identificado 63 casos de uso de IA generativa que abarcan 16 funciones empresariales, lo que da una idea del nivel de transformación potencial. Por supuesto, la productividad, la eficiencia y la eficacia son el santo grial para las organizaciones que desean alcanzar el éxito a largo plazo en un mundo en continuo cambio, por lo que esta noticia ha sido recibida con gran entusiasmo.

Sin embargo, en medio de ese entusiasmo, hay una palabra que aparece una y otra vez: riesgo. Al fin y al cabo, la IA generativa todavía está dando sus primeros pasos. Y, por ello, las empresas deben pensar cuidadosamente cómo aplicarla en sus organizaciones y cuáles podrían ser los resultados potenciales. «En definitiva todo depende de la tolerancia al riesgo y a cuánto queramos asumir», afirma Quentyn Taylor, Senior Director de Seguridad de la Información y Respuesta Global de Canon EMEA. «Por ejemplo, ¿estamos dispuestos a aceptar que una IA responda a las consultas de los clientes, cuando se equivocará en bastantes ocasiones?» Esta es solo una forma de utilizar la GenAI para aumentar la eficiencia, pero, como señala Quentyn, ¿cuál es el riesgo para nuestra reputación cuando un cliente recibe información incorrecta? Depende en gran medida del producto y del cliente, y este es el gran desafío para las empresas: tener muy claro los lugares en los que la Gen AI puede añadir valor real y aquellos en los que no hay un nivel de riesgo aceptable. Por tanto, para empezar tan siquiera a emitir estos juicios, es esencial entender cuáles podrían ser los riesgos.

Protección de la propiedad intelectual y de la información comercial confidencial

Este es el ámbito que la mayoría de las organizaciones ha abordado de forma más inmediata y algunas incluso han prohibido el uso de herramientas y servicios de IA generativa para proteger y preservar su privacidad corporativa. Básicamente, todo lo que se introduce en un modelo de GenAI se convierte en datos de aprendizaje. Por lo tanto, si le pides que escriba un discurso para el lanzamiento de un producto emocionante, proporcionándole todos los detalles de ese producto en la solicitud, lo que acabas de hacer es cargar información crítica y embargada de tu negocio a una herramienta de uso global. Si tu negocio se desvive por su propiedad intelectual, entonces nos encontramos ante un nivel de riesgo inaceptable. «Por otro lado», añade Quentyn, «si ya has usado la IA generativa para escribir 300 descripciones ligeramente diferentes de productos existentes, ¿es un problema? Probablemente no». Otra perspectiva a tener en cuenta es la relación entre el esfuerzo de vigilar el problema y el resultado: «¿Perfeccionar el uso de la GenAI es usar el tiempo de manera eficaz? ¿Podemos bloquear completamente el acceso cuando se lanzan miles de herramientas nuevas cada día?» se pregunta.

Dos personas sentadas en sus mesas de oficina, una frente a la otra, pero ambas mirando sus monitores mientras trabajan en sus ordenadores.

Cuando tus equipos utilizan la IA generativa para ayudarles con sus tareas diarias, es fundamental para el negocio asegurarse de que no carguen información comercial confidencial.

Toma de decisiones, sesgo y comunicación

¿Quién está al mando? Por supuesto la toma de decisiones comienza en las altas esferas, pero cuando la junta saca conclusiones con la ayuda de herramientas de IA generativa, el proceso tiene que ser totalmente transparente. Del mismo modo, es esencial tener en cuenta el sesgo al utilizar la GenAI como herramienta para analizar las opciones de aumentar la productividad y la rentabilidad. Por lo general se entiende que los datos de aprendizaje deben ser inmensos para que un modelo de IA sea incluso remotamente justo, pero incluso entonces, existe un sesgo. Esta es la razón por la cual muchas organizaciones optan por no utilizar estas herramientas en áreas clave de la toma de decisiones y, a menudo, se cita la contratación como un área problemática. Quentyn subraya esto, diciendo: «Siempre hay que entender el contexto en el que se toman las decisiones respaldadas por la IA». «Y esto debe comunicarse de manera clara al resto de la organización, ya que de lo contrario se corre el riesgo de crear una confusión generalizada y desconfianza hacia los directivos». Esto es especialmente importante cuando se tiene en cuenta la frecuencia con la que las decisiones organizativas tienen que «desentrañarse», para comprender la base, a menudo muy matizada, sobre la que se dictan las acciones.

Infracción del copyright

En estos momentos, hay demandas muy importantes en trámite en las que las partes creen que su trabajo creativo se ha utilizado para alimentar una IA sin su consentimiento. Y hay pocas preocupaciones más graves en torno a la IA generativa que la de la legalidad del contenido que crea. Sí, hay algunas herramientas de reciente creación (como Adobe Firefly) que se alimentan únicamente con datos que se poseen de forma legal, pero en otros casos está poco o nada claro en estos momentos si es seguro utilizar determinados datos para, por ejemplo, crear un conjunto de imágenes para una campaña en redes sociales o diseñar una nueva identidad de marca. A la hora de trabajar con terceros en dichas actividades, Quentyn considera importante «adaptar o actualizar los contratos para mitigar el riesgo y asegurarse de que se aplican internamente unas directrices y políticas claras».

Cuando la GenAI miente

Es posible que hayas escuchado con bastante frecuencia el término «alucinaciones» en el contexto de la GenAI. En pocas palabras, es cuando un modelo de IA genera una respuesta errónea o poco realista. Podría ser algo tonto, como una palabra completamente inventada o una frase sin sentido. O podría proporcionar con confianza una información falsa, como le sucedió a dos abogados que presentaron ante un tribunal seis referencias de casos que resultaron ser completamente ficticias. Posteriormente, se descubrió que los habían generado con ChatGPT y se condenó a los abogados a pagar una multa de 5000 dólares. Los expertos en IA reconocen el problema y están «progresando», pero mientras tanto estamos ante un área de riesgo excepcional para las organizaciones y sus directivos. «Verificar los hechos, verificar los hechos, verificar los hechos», insiste Quentyn. «Esta es una de las funciones clave de los seres humanos cuando utilizamos la IA para generar contenido de fondo. Debemos ser editores escrupulosos y eficaces». También advierte de los riesgos que conlleva el uso de bots de IA generativa para supervisar y responder en las redes sociales. «Tu bot podría empezar a dar respuestas que, en teoría, podrían ser correctas, pero no en el contexto de la pregunta que se le ha formulado».

En general, Quentyn considera positivo que muchas organizaciones adopten la IA como una «ventaja de fondo», integrada y ofrecida por los servicios y herramientas que ya utilizan. En este sentido, gran parte del riesgo ya se mitiga mediante los contratos con terceros y la implementación de soluciones de socios reconocidos, respetados y probados. «Tal vez una empresa podría utilizar la IA para analizar los correos electrónicos en busca de estafas de phishing», nos explica. «Es probable que no escriban o desarrollen código ellos mismos específicamente, sino que se beneficien del uso de herramientas que incluyen este servicio». En última instancia, cualquier empresa asume una cantidad significativa de gestión de riesgos y las nuevas oportunidades que presenta la IA generativa no son diferentes en este sentido.

Relacionado