O CEO da Openai, Sam Altman, disse que a humanidade está a apenas anos do desenvolvimento de inteligência geral artificial que poderia automatizar a maioria dos trabalhos humanos. Se isso é verdade, a humanidade também merece entender e ter uma opinião sobre as pessoas e a mecânica por trás de uma força tão incrível e desestabilizadora.
Esse é o propósito orientador por trás “Os arquivos do OpenAI“Um projeto de arquivo do Projeto Midas e do Projeto de Supervisão Tecnologia, duas organizações de vigilância de tecnologia sem fins lucrativos. Os arquivos são uma” coleção de preocupações documentadas com práticas de governança, integridade da liderança e cultura organizacional no OpenAI “. Além de aumentar a conscientização, o objetivo dos arquivos é propor um caminho a seguir para o OpenAI e outros líderes de IA que se concentram na governança responsável, liderança ética e benefícios compartilhados.
“As estruturas de governança e a integridade de liderança que orientam um projeto tão importante quanto isso deve refletir a magnitude e a gravidade da missão”, lê o site do site Visão para mudança. “As empresas que lideram a corrida para a AGI devem ser mantidas e devem se manter, padrões excepcionalmente altos”.
Até agora, a corrida para domínio na IA resultou em escala bruta-uma mentalidade de crescimento ao mesmo tempo que levou empresas como o OpenAI a aumentar o conteúdo sem consentimento para fins de treinamento e construir datacenters maciços que são causando quedas de energia e aumentando os custos de eletricidade para consumidores locais. A corrida para comercializar também levou as empresas a enviar produtos antes de colocar salvaguardas necessáriascomo pressão dos investidores para obter um lucro aumentando.
Essa pressão do investidor mudou a estrutura central do OpenAI. Os arquivos do OpenAI detalham como, em seus primeiros dias sem fins lucrativos, o OpenAI limitou inicialmente os lucros dos investidores a um máximo de 100x, de modo que qualquer produto da obtenção da AGI fosse para a humanidade. Desde então, a empresa anunciou planos para remover esse limite, admitindo que fez essas mudanças para apaziguar os investidores que tornaram o financiamento condicional às reformas estruturais.
Os arquivos destacam questões como os processos de avaliação de segurança apressados da Openai e a “cultura da imprudência”, bem como os possíveis conflitos de interesse dos membros do conselho da Openai e do próprio Altman. Eles incluem uma lista de startups que podem estar no próprio portfólio de investimentos da Altman, que também possuem empresas sobrepostas com o OpenAI.
Os arquivos também questionam a integridade de Altman, que tem sido um tópico de especulação desde que os funcionários seniores tentaram expulsá -lo em 2023 sobre “comportamento enganoso e caótico”.
“Eu não acho que Sam seja o cara que deveria ter o dedo no botão de AGI”, Ilya Sutskever, ex -cientista -chefe do OpenAI, segundo disse na época.
As perguntas e soluções levantadas pelos arquivos do OpenAI nos lembram que o enorme poder repousa nas mãos de alguns, com pouca transparência e supervisão limitada. Os arquivos fornecem um vislumbre da caixa preta e visam mudar a conversa da inevitabilidade para a responsabilidade.
Deixe um comentário