A Apple implementou algumas restrições aos seus funcionários em relação ao uso de ferramentas de IA, como o ChatGPT da OpenAI e o GitHub Copilot.
A empresa alega preocupação com a possibilidade de vazamento ou coleta de informações confidenciais através desses sistemas e aplicativos de IA.
O GitHub Copilot, uma ferramenta de IA desenvolvida pela Microsoft para auxiliar na escrita de códigos de software, é considerado ainda mais inseguro pela Apple devido à sua propriedade e operação por parte da concorrente.
De acordo com informações de fontes confiáveis, a Apple está empenhada em desenvolver sua própria ferramenta de IA generativa para seus funcionários.
Evidentemente, a Apple está adotando medidas cautelosas em relação à IA e suas aplicações. Recentemente, a empresa também bloqueou a atualização de diversos aplicativos generativos de IA em sua App Store.
Outras gigantes da tecnologia, como a Samsung, também proibiram seus funcionários de utilizarem ferramentas de IA pelo mesmo motivo.
Para quem não sabe, a IA depende significativamente dos dados que recebe para gerar novas respostas e aprender novidades. Caso tenha acesso a qualquer tipo de informação confidencial, ela pode inadvertidamente divulgá-la.
Na próxima semana, a Apple realizará seu evento anual WWDC, onde a empresa apresentará novos softwares e dispositivos, como o suposto fone de ouvido de realidade mista.
Via: The Verge