À medida que tantas AE financiadas pela tecnologia se espalham pelas principais frentes políticas em Washington, estão a alimentar um conflito cultural – mergulhando na cultura cada vez mais detalhada da cidade com um zelo mais parecido com os prosélitos do que com os especialistas em políticas.
Os reguladores em Washington vivem normalmente num mundo de disputas práticas sobre como a IA pode promover o perfil racial, espalhar desinformação, minar os direitos de autor ou deslocar trabalhadores. Mas os EAs, alimentados por uma mistura única de admiração e medo no norte da Califórnia diante da velocidade da tecnologia, vivem em um reino existencial.
“O pessoal da EA está falando sobre um tema completamente diferente, num estilo completamente diferente”, diz Robin Hanson, economista da Universidade George Mason e ex-filantropo.
A partir das suas localizações nascentes no Capitólio, agências federais e grandes grupos de reflexão, os EA estão a pressionar legisladores, funcionários de agências e especialistas em política experientes a apoiarem legislação que “alinhe” a IA com objectivos e valores humanos.
Todas as políticas propostas pelas EAs e seus parceiros — novas regras de comunicação para modelos avançados de IA,
Requisitos de licenciamento para empresas de IARestrições a modelos de código aberto, misturando IA com biotecnologia ou uma
Conclua a “Pausa” em Experimentos de IA “Gigantes” – estão na prossecução desse objectivo.
“É como, 'OK, este é outro problema técnico. Estamos lidando com problemas técnicos há muito tempo e tivemos tempo para lidar com isso. Porque realmente não tivemos'”, disse Emilia Jaworski, diretor do Future of Life Institute — o programa futuro de uma organização.
Fundado por EA Luminaries E
Parcialmente financiado Através de uma fundação financiada pelo bilionário da tecnologia Elon Musk, a EA considera a EA uma “correspondência próxima” à sua filosofia.
“Se não começarmos a traçar os limites agora, o gênio saiu da garrafa – é quase impossível colocá-lo de volta”, alertou Jaworski.
IA são profetas do apocalipse
Impulsionado por uma avalanche de dólares em tecnologiaGrande parte disso flui através da filantropia aberta – o financiamento principal para causas voluntárias valiosas fundadas e financiadas pelo bilionário cofundador do Facebook, Dustin Moskowitz, e sua esposa, Carrie Tuna.
pagou centenas de milhões de dólares Think tanks e programas influentes que trabalham nos principais escritórios do Congresso e agências federais.
“É uma intrusão épica”, disse um investigador de biossegurança em Washington, que falou sob condição de anonimato para evitar uma reação negativa dos financiadores ligados à AE.
As EAs, em particular, deram aos investigadores tradicionais de IA e biossegurança um lugar na primeira fila à medida que a nova filosofia de Silicon Valley se espalha – que os futuros sistemas de IA poderiam combinar-se com ferramentas de síntese genética e outras tecnologias para criar armas biológicas que poderiam matar milhares de milhões de pessoas. Em Washington.
Muitos desses investigadores, financiadores bilionários da EA – muitas vezes com laços pessoais e financeiros estreitos com empresas como a OpenAI e a Anthropic – estão a tentar distrair Washington da análise do impacto da IA no mundo real, incluindo a sua tendência para minar a privacidade por preconceitos raciais ou de género. e enfraquece as proteções de direitos autorais.
Eles também temem que os financiadores da indústria de tecnologia da EA estejam agindo em seu próprio interesse, trabalhando para bloquear a concorrência das principais empresas de IA, promovendo regras para bloquear o acesso à tecnologia em nome da “proteção de IA”.
“Bastante [EAs] “Acho que alguns dos jogadores que estão sendo observados com muito cuidado estão seguros aos seus próprios olhos”, disse Hanson.”Portanto, eles não estão interessados em reduzir seu foco nesta indústria ou em centralizar o poder nesta indústria.”
Os antecedentes geralmente brancos e privilegiados dos proponentes da AE alimentaram o cepticismo em Washington, especialmente entre os legisladores negros preocupados com a forma como os sistemas de IA existentes poderiam prejudicar as comunidades marginalizadas.
“Não pretendo criar estereótipos de amigos da tecnologia, mas sabemos que esta não é uma área da América que é frequentemente escolhida pela diversidade”, disse o senador. Cory Booker (DN.J.) disse ao POLITICO em setembro.
“Essa ideia de que de alguma forma viveremos em um pesadelo do Exterminador do Futuro – sim, eu me preocupo com essas coisas existenciais”, disse Booker. “Mas a maioria dos americanos não percebe que a IA já existe no imediatismo daquilo a que já estamos acostumados – tudo, desde a seleção de currículos até os anúncios que vejo no meu telefone.”
Apesar dessas preocupações, a quantidade de dinheiro injetada em Washington pela Open Philanthropy e outros grupos afiliados à EA deu ao movimento uma influência significativa sobre o debate sobre IA e biossegurança em Washington.
“O dinheiro falhou em grande parte”, disse Hanson, referindo-se ao apoio a aliados e funcionários políticos específicos da IA.
Os trabalhadores de biossegurança financiados pela IA e pela filantropia aberta estão integrados em gabinetes do Congresso na vanguarda das potenciais regras de IA, incluindo três gabinetes do Senado escolhidos pelo líder da maioria. Chuck Schumer Para estudar tecnologia. Mais de meia dúzia de analistas céticos de IA e biossegurança que conversaram com o POLITICO, uma densa rede de funcionários do Capitólio e de agências – financiados por centenas de milhões de dólares da EA – estão preocupados com a forma como os legisladores estão discutindo a segurança da IA, que de outra forma continua sendo um problema. questão relativamente discreta. Campo em Washington.
Um analista de IA e biossegurança em Washington disse que os legisladores e outros especialistas políticos estão a ser pressionados a concentrar-se nos riscos existenciais da IA através da força repetida.
“Ter essa mensagem constantemente na cara significa perpetuidade”, disse o pesquisador, que falou sob condição de anonimato para evitar prejuízos financeiros.