Consulte o texto integral da Lei da IA em linha utilizando o nosso AI Act Explorer

Verificador de conformidade com o Ato de IA da UE

A Lei da IA da UE introduz novas obrigaçÔes para as entidades localizadas na UE e noutros países. Utilize a nossa ferramenta interactiva para determinar se o seu sistema de IA estarå ou não sujeito a estas obrigaçÔes.

Se pretender manter-se atualizado sobre as suas obrigaçÔes ao abrigo da Lei da IA da UE, recomendamos que subscreva a Newsletter da Lei da IA da UE.

Para maior clareza, recomendamos que procure aconselhamento jurídico profissional e siga as orientaçÔes nacionais. Mais informaçÔes sobre a aplicação da Lei da IA da UE no seu país serão provavelmente fornecidas em 2024.

Feedback - Estamos a trabalhar para melhorar esta ferramenta. Por favor, envie os seus comentĂĄrios para Taylor Jones em taylor@futureoflife.org

O texto utilizado nesta ferramenta Ă© o "Ato sobre a InteligĂȘncia Artificial (Regulamento (UE) 2024/1689), versĂŁo do Jornal Oficial de 13 de junho de 2024". Ficheiro interinstitucional: 2021/0106(COD)

Registo de alteraçÔes

26 de março de 2024

  • Foi corrigido um erro que impedia os responsĂĄveis pela implantação de receberem as suas obrigaçÔes ao abrigo do artigo 29.
  • Eliminado o seguinte aviso no resultado "ObrigaçÔes de alto risco": "Uma exclusĂŁo adicional para sistemas que sejam "puramente acessĂłrios no que respeita Ă  ação ou decisĂŁo relevante a tomar" serĂĄ definida o mais tardar um ano apĂłs a introdução da Lei da IA." Esta exclusĂŁo jĂĄ nĂŁo estĂĄ presente no artigo 7.Âș do projeto final.

11 de março de 2024

  • Atualização do verificador de conformidade para refletir o "projeto final" da Lei da IA.

Privacidade de dados: Para podermos enviar-lhe os resultados por correio eletrónico, temos de guardar os dados introduzidos neste formulårio, incluindo o seu endereço de correio eletrónico. Se não utilizar a função de correio eletrónico, nenhum dos seus dados serå armazenado. Não armazenamos quaisquer outros dados que possam ser utilizados para identificar o utilizador ou o seu dispositivo. Se desejar manter o anonimato, utilize um endereço de correio eletrónico que não revele a sua identidade. Não partilhamos nenhum dos seus dados com terceiros. Se pretender que os seus dados sejam eliminados dos nossos servidores, contacte taylor@futureoflife.org

Perguntas mais frequentes

Quem desenvolveu esta ferramenta e porquĂȘ?

Esta ferramenta foi desenvolvida pela equipa do Instituto do Futuro da Vida. Não estamos de forma alguma associados à União Europeia. Desenvolvemos esta ferramenta voluntariamente para ajudar à implementação efectiva da Lei da IA, porque acreditamos que a Lei da IA apoia a nossa missão de garantir que a tecnologia da IA continua a ser benéfica para a vida e evita riscos extremos em grande escala.

Posso integrar esta ferramenta no meu prĂłprio sĂ­tio Web?

A nossa ferramenta estå construída de uma forma que dificulta a sua implementação noutros sítios. Não temos uma API disponível. Por conseguinte, para quase todos os casos, sugerimos que disponibilize esta ferramenta aos utilizadores do seu sítio Web, ligando para esta pågina Web - pode utilizar esta imagem de maquete para apresentar a ferramenta no seu sítio.

Quando Ă© que a Lei da IA da UE entra em vigor?

A Lei da IA da UE entrou em vigor em 1 de agosto de 2024. Segue-se agora um perĂ­odo de implementação de dois a trĂȘs anos, uma vez que vĂĄrias partes da lei entram em vigor em datas diferentes. O nosso calendĂĄrio de aplicação fornece uma panorĂąmica de todas as datas-chave relacionadas com a aplicação da lei.

Durante o período de implementação, espera-se que os organismos de normalização europeus desenvolvam normas para o Ato de IA.

Quais sĂŁo as categorias de risco definidas pela Lei da IA da UE?

O quadro regulamentar da lei define quatro nĂ­veis de risco para os sistemas de IA: risco inaceitĂĄvel, elevado, limitado e mĂ­nimo ou nulo. SerĂŁo proibidos os sistemas que apresentem riscos inaceitĂĄveis, tais como ameaçar a segurança, os meios de subsistĂȘncia e os direitos das pessoas - desde a pontuação social dos governos atĂ© aos brinquedos que utilizam assistĂȘncia por voz. Os sistemas de alto risco, como os utilizados em infra-estruturas crĂ­ticas ou na aplicação da lei, terĂŁo de cumprir requisitos rigorosos, nomeadamente em matĂ©ria de avaliação de riscos, qualidade dos dados, documentação, transparĂȘncia, controlo humano e exatidĂŁo. Os sistemas que apresentam riscos limitados, como os chatbots, devem cumprir obrigaçÔes de transparĂȘncia para que os utilizadores saibam que nĂŁo estĂŁo a interagir com humanos. Os sistemas de risco mĂ­nimo, como os jogos e os filtros de spam, podem ser utilizados livremente.

Que percentagem de sistemas de IA se enquadrarĂĄ na categoria de alto risco?

Não se sabe ao certo qual a percentagem de sistemas de IA que estarå na categoria de alto risco, uma vez que tanto o domínio da IA como a legislação ainda estão a evoluir. A Comissão Europeia estimou, num estudo de impacto, que apenas 5-15% das aplicaçÔes estariam sujeitas a regras mais rigorosas. Um estudo da appliedAI sobre 106 sistemas de IA de empresas concluiu que 18% eram de alto risco, 42% de baixo risco e 40% não sabiam se eram de alto ou baixo risco. Os sistemas com classificação de risco pouco clara neste estudo situavam-se principalmente nos domínios das infra-estruturas críticas, do emprego, da aplicação da lei e da segurança dos produtos. Num inquérito relacionado com 113 startups de IA da UE, 33% das startups inquiridas acreditavam que os seus sistemas de IA seriam classificados como de alto risco, em comparação com os 5-15% avaliados pela Comissão Europeia.

 

Quais são as sançÔes previstas na Lei da IA da UE?

Com base na posição adoptada pelo Parlamento Europeu, a utilização de prĂĄticas de IA proibidas, descritas no artigo 5.Âș, pode resultar em coimas atĂ© 40 milhĂ”es de euros ou 7% do volume de negĂłcios anual a nĂ­vel mundial, consoante o valor mais elevado. O incumprimento dos requisitos em matĂ©ria de governação de dados (artigo 10.Âș) e dos requisitos de transparĂȘncia e prestação de informaçÔes (artigo 13.Âș) pode dar origem a coimas atĂ© 20 milhĂ”es de euros ou 4% do volume de negĂłcios mundial, se este for superior. O incumprimento de quaisquer outros requisitos ou obrigaçÔes pode dar origem a coimas atĂ© 10 milhĂ”es de euros ou 2% do volume de negĂłcios mundial, consoante o montante que for mais elevado. As coimas sĂŁo escalonadas em função da disposição violada, sendo as prĂĄticas proibidas objeto das sançÔes mais elevadas e as outras violaçÔes objeto de coimas mĂĄximas mais baixas.

 

Que medidas aplica o Ato UE sobre a IA especificamente para as PME?

A Lei da IA da UE tem como objetivo prestar apoio Ă s PME e Ă s empresas em fase de arranque, tal como especificado no artigo 55. As medidas especĂ­ficas incluem a concessĂŁo de acesso prioritĂĄrio Ă s sandboxes regulamentares para as PME e as empresas em fase de arranque sediadas na UE, se os critĂ©rios de elegibilidade forem cumpridos. AlĂ©m disso, serĂŁo organizadas actividades de sensibilização e de desenvolvimento de competĂȘncias digitais adaptadas para responder Ă s necessidades das organizaçÔes mais pequenas. AlĂ©m disso, serĂŁo criados canais de comunicação especĂ­ficos para oferecer orientaçÔes e responder a questĂ”es das PME e das empresas em fase de arranque. SerĂĄ tambĂ©m incentivada a participação das PME e de outras partes interessadas no processo de desenvolvimento de normas. Para reduzir os encargos financeiros da conformidade, as taxas de avaliação da conformidade serĂŁo reduzidas para as PME e as empresas em fase de arranque, com base em factores como a fase de desenvolvimento, a dimensĂŁo e a procura do mercado. A ComissĂŁo analisarĂĄ regularmente os custos de certificação e conformidade para as PME/startups (com o contributo de consultas transparentes) e trabalharĂĄ com os Estados-Membros para reduzir esses custos sempre que possĂ­vel.

 

Posso cumprir voluntariamente o AI Act da UE mesmo que o meu sistema não esteja abrangido pelo ùmbito de aplicação?

Sim! A ComissĂŁo, o Gabinete de IA e/ou os Estados-Membros incentivarĂŁo cĂłdigos de conduta voluntĂĄrios para os requisitos previstos no capĂ­tulo 2 do tĂ­tulo III (por exemplo, gestĂŁo de riscos, governação de dados e supervisĂŁo humana) para sistemas de IA nĂŁo considerados de alto risco. Estes cĂłdigos de conduta fornecerĂŁo soluçÔes tĂ©cnicas para a forma como um sistema de IA pode cumprir os requisitos, de acordo com o objetivo pretendido do sistema. SerĂŁo tidos em conta outros objectivos, como a sustentabilidade ambiental, a acessibilidade, a participação das partes interessadas e a diversidade das equipas de desenvolvimento. As pequenas empresas e as empresas em fase de arranque serĂŁo tidas em conta ao incentivar os cĂłdigos de conduta. Ver artigo 69.Âș sobre cĂłdigos de conduta para a aplicação voluntĂĄria de requisitos especĂ­ficos.