Preocupações crescentes com a segurança dos dados levaram a Apple, referência mundial em tecnologia, a proibir o uso do popular chatbot baseado em inteligência artificial, ChatGPT. A empresa optou por tal restrição para proteger suas informações sigilosas, temendo que pudessem ser comprometidas.
Os planos da empresa foram divulgados pelo The Wall Street Journal, que teve acesso a um comunicado interno da Apple. Nele, notou-se a proibição de ferramentas de IA, como o ChatGPT, apoiado pela Microsoft. Curiosamente, essa restrição surge enquanto a Apple se empenha no desenvolvimento de sua própria tecnologia de IA.
A decisão da Apple não está isolada. Outras empresas, como a Samsung, também emitiram memorandos internos em 2 de maio, restringindo o uso de ferramentas generativas de IA, como o ChatGPT. A motivação por trás dessa restrição foi um incidente envolvendo a equipe da Samsung, que carregou um “código confidencial” na plataforma.
Para evitar tal situação, os funcionários foram advertidos para não carregar informações da empresa em seus dispositivos pessoais, sob o risco de enfrentarem consequências disciplinares.
Não é só o ChatGPT
No entanto, a restrição da Apple foi além do ChatGPT. Outra ferramenta de IA da Microsoft, chamada Copilot, que foi desenvolvida pelo GitHub para automatizar a programação de software, também está na lista de restrições.
O ChatGPT foi lançado para iOS na App Store da Apple em 18 de maio. Atualmente, o aplicativo está disponível para usuários de iPhone e iPad nos Estados Unidos, com planos de expandir para outros países “nas próximas semanas”. Uma versão do aplicativo para Android também está em andamento.
Outras empresas, além da Apple e Samsung, como JPMorgan, Bank of America, Goldman Sachs e Citigroup, também optaram por restringir o uso interno de ferramentas de IA generativas. Essas restrições não são inibidoras de inovação, já que muitas dessas empresas estão desenvolvendo seus próprios aplicativos de IA.