Recentemente, surgiram vários relatórios sobre a Apple e outras grandes empresas terem usado vídeos transcritos do YouTube treinar seus modelos de IA sem a devida autorização dos criadores.
As principais empresas mencionadas são: Apple, Google, Meta e OpenAI. Essas gigantes da tecnologia receberam diversas críticas por supostamente violarem essas diretrizes.
A Apple, em particular, foi acusada de usar conteúdo do YouTube para treinar seu modelo OpenELM, o que gerou uma grande polêmica.
Apple esclarece práticas de treinamento da IA
A gigante de Cupertino veio a público para defender suas práticas e esclarecer as especulações que levantaram preocupações éticas e de infração na comunidade tecnológica.
Segundo um relatório do 9toMac, a Apple confirmou que a inteligência artificial (IA) da empresa foi treinada exclusivamente com conteúdo licenciado, sem recorrer a vídeos do YouTube sem permissão.
A maçã afirma que a OpenELM, modelo de código aberto da Apple, foi treinada utilizando o conjunto de dados Pile, e que essa iniciativa faz parte de um projeto de pesquisa, sem ligação direta com outras iniciativas de IA da empresa.
A polêmica envolvendo o uso de vídeos do YouTube
Google, Meta e OpenAI têm sido criticadas por supostamente utilizarem legendas de mais de 170.000 vídeos do YouTube para treinar seus modelos de IA.
A Apple, por sua vez, apontou que seu modelo OpenELM, lançado em abril, é uma contribuição puramente de pesquisa e não está integrado aos seus produtos de IA comerciais.
A empresa também afirmou que investe significativamente em práticas éticas, pagando milhões a editores por dados licenciados.
A Apple reiterou seu compromisso com o desenvolvimento responsável de IA, detalhando suas práticas em artigos de pesquisa e assegurando que seu treinamento de modelos é feito de forma ética e transparente.
Enquanto outras empresas são acusadas de usar os dados do YouTube Subtitles da organização EleutherAI sem permissão, a Apple se distancia dessas práticas, promovendo a transparência em suas técnicas de extração de material e métodos de treinamento.
Apesar da polêmica, a Apple demonstrou que tem se esforçado para manter práticas éticas no desenvolvimento de suas tecnologias de IA.
A empresa busca assegurar que seu modelo OpenELM foi desenvolvido com total transparência e responsabilidade, diferentemente de outras grandes empresas mencionadas.
A discussão em torno do uso de dados para treinar IA reacende o debate sobre a necessidade de uma maior transparência e ética nesse campo em rápida evolução.