O OpenAI foi hackeado ano passado, de acordo com novo relatório
No início do ano passado, um hacker roubou detalhes confidenciais sobre as tecnologias de IA da OpenAI, segundo informou o The New York Times. O cibercriminoso supostamente obteve acesso a informações sensíveis de um fórum de discussão onde funcionários discutiam os modelos mais recentes da empresa.
O New York Times manteve a descrição da fonte dessa notícia em sigilo, referindo-se a “duas pessoas familiarizadas com o incidente”. Contudo, afirmaram que o hacker apenas violou o fórum, sem comprometer os sistemas principais que alimentam os algoritmos e a infraestrutura de IA da OpenAI.
Veja também: Fio primeiro ou tomada? Esta é a maneira certa para carregar o celular sem danificar
A OpenAI teria revelado o hack aos funcionários durante uma reunião geral em abril de 2023 e também informado o conselho de diretores. No entanto, os executivos decidiram não divulgar a notícia publicamente, já que informações sobre clientes não foram comprometidas.
De acordo com o The New York Times, a OpenAI não notificou o FBI ou outras autoridades policiais sobre a violação. Os executivos da empresa não consideraram o incidente uma ameaça à segurança nacional, acreditando que o hacker era um indivíduo sem vínculos conhecidos com governos estrangeiros.
Fontes do New York Times revelaram que alguns funcionários da OpenAI temiam que adversários baseados na China pudessem roubar os segredos de IA da empresa, representando uma ameaça à segurança nacional dos EUA.
IA tem dados roubados por hacker
Leopold Aschenbrenner, líder da equipe de superalinhamento da OpenAI na época, compartilhou preocupações semelhantes sobre a segurança frouxa e a vulnerabilidade da empresa a inimigos estrangeiros.
Aschenbrenner afirmou ter sido demitido no início deste ano por compartilhar um documento interno com três pesquisadores externos para obter “feedback”. Ele argumenta que sua demissão foi injusta, pois examinou o documento para garantir que não continha informações sensíveis, e que é comum os funcionários da OpenAI consultarem outros especialistas para obter uma segunda opinião.
O The New York Times destaca que estudos conduzidos pela Anthropic e pela própria OpenAI indicam que a IA “não é significativamente mais perigosa” do que mecanismos de busca como o Google.
Ainda assim, as empresas de IA devem garantir que suas medidas de segurança sejam rigorosas. Legisladores estão pressionando por regulamentações que imponham multas pesadas a empresas cujas tecnologias de IA causem danos sociais.