A recente mudança na OpenAI, empresa dona do modelo de IA para vídeo Sora, ChatGPT e outros produtos, está mexendo com a comunidade dos especialistas em segurança. O executivo de segurança da empresa, Aleksander Madry, foi transferido para o cargo de raciocínio de IA. Embora a movimentação não seja explicitamente divulgada pelo órgão, a medida é considerada inusitada, especialmente num momento em que os reguladores e criadores estão muito preocupados com as questões de segurança e direitos autorais da inteligência artificial.
A mudança ocorreu após a Microsoft ter revelado que grupos de hackers de diversos países estavam se utilizando de seus produtos de IA. Em resposta, a empresa tomou medidas para impedir grupos mal-intencionados de aproveitar seus sistemas de inteligência artificial. Além disso, a Microsoft assinou um pacto com o Google, Meta e outras empresas de tecnologia para combater deepfakes eleitorais, um esforço essencial para a preservação da integridade eleitoral.
No entanto, essa não é a única preocupação envolvendo a segurança da OpenAI. Recentemente, a empresa Conde Nast enviou uma carta de cessar e desistir à Perplexity, uma empresa especializada em respostas generativas, após descobrir que o conteúdo da Conde Nast estava sendo utilizado ilicitamente pelas máquinas de aprendizado de máquina. Essa é apenas mais uma das múltiplas disputas sobre direitos autorais que têm dividido a indústria tecnológica nos últimos tempos.
A mudança na posição de Madry é certamente uma razão de grande preocupação, especialmente considerando a responsabilidade que uma empresa como a OpenAI tem na área de inteligência artificial. O futuro é incerto e está cheio de perguntas, tais como: qual é a razão para a mudança e o que isso implica para a segurança dos seus produtos e serviços? Apesar de tudo, é de esperar que a OpenAI continue a trabalhar rigorosamente para garantir a segurança e a integridade de suas soluções.