Apple y Microsoft prohíben el uso de ChatGPT a sus empleados

Las empresas se resisten a ChatGPT

La tecnología de inteligencia artificial (IA) ChatGPT ha suscitado preocupaciones en grandes empresas como Apple, Microsoft y Deloitte, llevándolas a restringir su uso entre sus empleados. Este giro de eventos refleja el creciente debate en torno a la privacidad de los datos y la seguridad en la era digital. Exploramos las implicaciones de estas decisiones y el impacto en el desarrollo de la IA. ChatGPT, la herramienta de inteligencia artificial desarrollada por OpenAI, ha sido objeto de crecientes preocupaciones en lo que respecta a la protección de los datos. 

A pesar de su impresionante capacidad para simular conversaciones humanas, la forma en que utiliza y gestiona los datos ha levantado alarmas en varias organizaciones. El uso indebido de los datos, especialmente en casos ilegales, ha causado estragos en los consumidores en los últimos años. Ahora, parece que las empresas también están sintiendo el impacto. Tal es el caso que algunas han optado por prohibir el uso de ChatGPT.

Apple prohíbe el uso de ChatGPT a sus empleados

Revisión de conversaciones ¿una amenaza a la privacidad?

En su sitio web, OpenAI reconoce que «revisa las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad». Esta declaración ha provocado cierta inquietud, y no solo en el mundo empresarial. Gobiernos como el italiano incluso llegaron a prohibir el uso de ChatGPT durante dos meses.

Las preocupaciones sobre la privacidad han llevado a empresas de la talla de Deloitte, JPMorgan, Verizon e incluso Microsoft, una de las principales inversoras de OpenAI, a desaconsejar la utilización de datos confidenciales o sensibles en ChatGPT. Este paso refleja la seriedad con la que las empresas toman la protección de los datos en el actual entorno digital.

Apple se une al coro de precaución

Recientemente, Apple también se ha unido a la tendencia, limitando el acceso de sus empleados a cualquier sistema de IA generativa, según informó The Wall Street Journal. La decisión de una de las mayores empresas tecnológicas del mundo de restringir el uso de ChatGPT subraya el desafío que enfrenta la IA en términos de seguridad y privacidad de los datos.

Este aluvión de restricciones plantea preguntas importantes sobre el futuro de la IA y la protección de los datos. Está claro que se necesita un enfoque más robusto y seguro para la gestión de los datos en la IA. Las empresas y los reguladores deben trabajar juntos para establecer normas y prácticas que aseguren la privacidad y protección de los datos de los usuarios.

Twitter cuentas corregidas