- Ataque russo deixa milhares sem calefação no sul da Ucrânia
- Plata e Valencia brilham em goleada do Equador sobre a Bolívia (4-0) nas Eliminatórias
- Paraguai surpreende e vence Argentina de virada (2-1) nas Eliminatórias
- Biden e Xi chegam a Lima para reunião bilateral e cúpula da Apec
- Kanye West disse que "judeus controlavam as Kardashians", segundo nova ação
- PF investiga ataque fracassado ao STF como 'ato terrorista'
- Justiça boliviana reconhece nova direção de partido do governo sem Evo Morales
- Vini perde pênalti e Brasil empata com a Venezuela (1-1) nas Eliminatórias
- Mortes por overdose de drogas ficam abaixo de 100 mil nos EUA
- França empata com Israel (0-0) em jogo quase sem público na Liga das Nações
- Bombardeio contra centro da Defesa Civil deixa 12 mortos no Líbano
- Inglaterra vence Grécia (3-0) e fica perto do acesso na Liga das Nações
- Itália vence Bélgica (1-0) e se garante nas quartas da Liga das Nações
- Sinner avança invicto à semifinal do ATP Finals; Fritz também se classifica
- Irã diz que quer esclarecer 'dúvidas e ambiguidades' sobre programa nuclear
- O que se sabe sobre a tentativa de ataque ao STF
- Trump nomeia Robert F. Kennedy Jr. como secretário de Saúde
- Nova York instalará pedágio em Manhattan antes da posse de Trump
- Morre opositor preso na Venezuela entre denúncias de "crise repressiva" após eleições
- Métodos de guerra de Israel em Gaza têm 'características de genocídio', aponta comitê da ONU
- Independência dos bancos centrais é fundamental para a economia, ressalta governadora do Fed
- Após nove anos, Justiça absolve Samarco, Vale e BHP por tragédia ambiental em Mariana
- G20 Social, o toque popular de Lula antes da cúpula de chefes de Estado
- PF investiga ataque fracassado ao STF como 'ação terrorista'
- Xi Jinping chega ao Peru para reunião com Biden e cúpula Ásia-Pacífico
- Trump forma equipe de governo com foco na lealdade pessoal
- Human Rights Watch acusa Israel de 'crime de guerra' por 'transferência forçada' em Gaza
- Espanha tem novas tempestades, mas sem causar mais vítimas
- G20 Social, o toque popular de Lula antes da grande cúpula de chefes de Estado
- 'Nossa pausa entre temporadas é muito curta', admite presidente da ATP
- Argentina retira delegação da COP29 por ordem de seu novo chanceler
- Juventus confirma grave lesão no joelho do colombiano Juan Cabal
- Fritz vence De Minaur, e Sinner vai à semifinal do ATP Finals sem jogar
- Justiça de Nova York multa casa de leilões Sotheby's por fraude fiscal
- Uefa investiga árbitro da Eurocopa 2024
- Setor de criptomoedas dos EUA espera viver ‘era de ouro’ com retorno de Trump ao poder
- GP de Mônaco continuará no calendário da F1 até 2031
- Roma tira Claudio Ranieri da aposentadoria para tentar salvar temporada
- UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência
- Irã diz que quer esclarecer 'dúvidas e ambiguidades' sobre o seu programa nuclear
- Justiça absolve Samarco, Vale e BHP pelo rompimento da barragem de Mariana em 2015
- Escolhas de Trump: duras em relação à migração, mas com desafios pela frente
- Azerbaijão tenta relançar COP29 após incidente com França e saída da Argentina
- A luta contra a fome no Lula 3, entre avanços e desafios
- Biden e Xi chegam a Lima para cúpula sob a sombra do retorno de Trump
- PF investiga ataque fracassado ao STF
- OCDE: fluxo de migrantes atinge recorde em 2023
- Argentina retira delegação da COP29
- Rei Charles III completa 76 anos com pouco a comemorar
- Irã alerta que não vai negociar programa nuclear sob pressão
Gigantes americanas da IA se unem para buscar autorregulação
Google, Microsoft, Anthropic e OpenAI, quatro das empresas americanas que lideram o cenário da Inteligência Artificial (IA) de última geração, anunciaram nesta quarta-feira (26) a criação de um novo órgão profissional para combater os riscos associados a esta tecnologia.
O "Frontier Model Forum" terá a responsabilidade de promover o "desenvolvimento responsável" dos modelos de IA mais sofisticados e "minimizar os potenciais riscos", de acordo com um comunicado à imprensa.
Assim, os membros se comprometem a compartilhar boas práticas entre si e com legisladores, pesquisadores e associações, para que esses sistemas sejam menos perigosos.
A rápida implantação da IA generativa, por meio de plataformas como ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), está gerando preocupação entre autoridades e a sociedade civil.
A União Europeia (UE) está finalizando um projeto de regulação desta tecnologia que deve impor obrigações às empresas do setor, como transparência com os usuários ou controle humano sobre as máquinas.
Já nos Estados Unidos, as tensões políticas com o Congresso impedem qualquer esforço neste campo.
Esta é uma das razões pelas quais a Casa Branca pede que as partes interessadas garantam a segurança de seus produtos, em nome de seu "dever moral", afirmou a vice-presidente americana, Kamala Harris, no início de maio.
Na semana passada, o governo de Joe Biden garantiu os "compromissos" da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI para defender "três princípios" no desenvolvimento de IA: segurança, proteção e confiança.
Supõe-se que estas empresas devem testar seus programas antecipadamente, combater ataques cibernéticos e fraudes e encontrar maneiras de sinalizar que o conteúdo foi gerado por IA, para que seja claramente autenticado como tal.
Os dirigentes destas companhias também não negam os riscos.
Em junho, Sam Altman, diretor da OpenAI, e Demis Hassabis, presidente da DeepMind (Google), exortaram a luta contra "os riscos de extinção" da humanidade "ligada à IA".
Durante uma audiência no Congresso, Altman endossou a ideia cada vez mais popular de criar uma agência internacional encarregada da regulação da inteligência artificial, como as que existem em outros campos.
Enquanto isso, a OpenAI está trabalhando em uma IA chamada "geral", com habilidades cognitivas semelhantes às dos humanos.
Em uma publicação de 6 de julho, a empresa abordou que tem como foco os "modelos de fronteira" da IA, "modelos fundamentais altamente sofisticados que poderiam adquirir capacidades perigosas suficientes para oferecer sérios riscos à segurança pública".
A gigante americana ainda alerta que esses recursos perigosos podem "surgir inesperadamente" e que "é realmente difícil impedir que um modelo implantado seja mal utilizado".
F.Schneider--AMWN