• Snack IA
  • Posts
  • Snack IA #06 - Los riesgos de adoptar IA en la empresa

Snack IA #06 - Los riesgos de adoptar IA en la empresa

Los beneficios de adoptar IA son cada día más claros. ¿Cuales son los riesgos?

🕵️ Información confidencialidad

Las empresas tienen el desafío constante de mantener su información confidencial. 

Desde el invento de la fotocopiadora, la cámara de fotos, la computadora, los pen-drives. El desafío es cada vez mayor año a año, invento a invento.

Cada nueva tecnología, es una nueva fuga posible para la información confidencial.

La introducción de IA es un nuevo desafío. 

Hoy en día tus colaboradores están subiendo contratos a ChatGPT, analizando mails, subiendo lotes de datos. Todo para hacer su trabajo más eficiente. 

¿Qué pasa con esta información? Si bien oficialmente digan lo contrario, nadie está seguro que la información que compartís con la IA no se haga pública, ni sea usada para entrenar otros modelos. 

Entonces, ¿qué se puede hacer?

Hoy en día, la mejor opción es capacitar y concientizar a tu equipo de trabajo sobre los riesgos de compartir la información. 

Evitarlo, es imposible.

🏋🏻 Mal entrenamiento

“Google AI sugiere agregar pegamento para que el queso se adhiera a la pizza”.

Si bien parece un chiste, esto paso hace algunos días. 

Es solo el principio. Va a seguir pasando.

En este caso puntual, todo se trata de un post chistoso en Reddit hace 11 años, que llegó hasta el buscador de Google como un AI Overview. 

La IA usa toda la información existente en internet para entrenar. Esto incluye información tanto verídica, como falsa.

¿Qué garantía hay que no tome textos falsos como verdades?

Ninguna.  Al igual que cualquier persona leyendo información falsa, la IA también se alimentará de textos sin sentido. Dependerá de cada uno de nosotros, la forma que elijamos para complementar y analizar cada información. 

Creo que Google (y cualquier IA que lo haga) comete un gran error alimentándose de Reddit. Y lo viene cometiendo con Reddit desde que decidió incluirlos en las primeras páginas de los resultados de su buscador. La mayor parte del contenido de Reddit está escrito por gente anónima, y como todo contenido anónimo, gran parte está lejos de ser información de fiar.

🔍 Falta de revisión

Si bien la IA ya está y estará cada día más presente entre nosotros, delegar el 100% de las decisiones puede ser un error muy costoso.      

No me refiero a fábricas robotizadas al 100% como la de Huawei. Esto se verá cada día más. 

Me refiero a que las decisiones tomadas por AI pueden ser

  • Incorrectas, como vimos en el caso de la pizza con pegamento

  • Tener falta de contexto y empatía

  • Tener sesgo en los datos

  • Carecer de creatividad e innovación

  • Falta de adaptabilidad

  • Falta de responsabilidad y ética

  • Ser vulnerables a cyber ataques

La lista es larga y puede seguir. 

¿Quiere decir esto que no hay que usar AI? No. Exactamente lo contrario

Más bien, que su uso debe ser con precaución y supervisión humana.

 🐄 La IA puede terminar con los test en animales

La IA está cambiando los análisis de datos, por ejemplo en toxicología. Proyectos como Animal GAN están desarrollando modelos virtuales para predecir reacciones químicas. 

Aún resta conocer cómo las regulaciones aceptarán esto. 

Si hoy en día se toman como pruebas válidas los análisis en ratones y otros humanos, ¿por qué no dejarlo a la tecnología?

PALABRA DE LA SEMANA

NLP (Natural Language Processing). El procesamiento de lenguaje natural (NLP) es una tecnología de machine learning que brinda a las computadoras la capacidad de interpretar, manipular y comprender el lenguaje humano.

HERRAMIENTAS

AiLawyer.   Tu asistente personal para Legales.

¿Alguien te reenvió este correo? Suscríbete aquí gratis.

Esto es todo!

¿Te gustó esta edición? Reenvíalo a esa persona que le pueda interesar.

¿Qué temas te interesan? Responde este correo con tu feedback constructivo.de