Consulte o texto integral da Lei da IA em linha utilizando o nosso AI Act Explorer
Verificador de conformidade com o Ato de IA da UE
A Lei da IA da UE introduz novas obrigaçÔes para as entidades localizadas na UE e noutros paĂses. Utilize a nossa ferramenta interactiva para determinar se o seu sistema de IA estarĂĄ ou nĂŁo sujeito a estas obrigaçÔes.
Se pretender manter-se atualizado sobre as suas obrigaçÔes ao abrigo da Lei da IA da UE, recomendamos que subscreva a Newsletter da Lei da IA da UE.
Para maior clareza, recomendamos que procure aconselhamento jurĂdico profissional e siga as orientaçÔes nacionais. Mais informaçÔes sobre a aplicação da Lei da IA da UE no seu paĂs serĂŁo provavelmente fornecidas em 2024.
Feedback - Estamos a trabalhar para melhorar esta ferramenta. Por favor, envie os seus comentĂĄrios para Taylor Jones em taylor@futureoflife.org
O texto utilizado nesta ferramenta Ă© o "Ato sobre a InteligĂȘncia Artificial (Regulamento (UE) 2024/1689), versĂŁo do Jornal Oficial de 13 de junho de 2024". Ficheiro interinstitucional: 2021/0106(COD)
Registo de alteraçÔes
26 de março de 2024
- Foi corrigido um erro que impedia os responsåveis pela implantação de receberem as suas obrigaçÔes ao abrigo do artigo 29.
- Eliminado o seguinte aviso no resultado "ObrigaçÔes de alto risco": "Uma exclusĂŁo adicional para sistemas que sejam "puramente acessĂłrios no que respeita Ă ação ou decisĂŁo relevante a tomar" serĂĄ definida o mais tardar um ano apĂłs a introdução da Lei da IA." Esta exclusĂŁo jĂĄ nĂŁo estĂĄ presente no artigo 7.Âș do projeto final.
11 de março de 2024
- Atualização do verificador de conformidade para refletir o "projeto final" da Lei da IA.
Privacidade de dados: Para podermos enviar-lhe os resultados por correio eletrónico, temos de guardar os dados introduzidos neste formulårio, incluindo o seu endereço de correio eletrónico. Se não utilizar a função de correio eletrónico, nenhum dos seus dados serå armazenado. Não armazenamos quaisquer outros dados que possam ser utilizados para identificar o utilizador ou o seu dispositivo. Se desejar manter o anonimato, utilize um endereço de correio eletrónico que não revele a sua identidade. Não partilhamos nenhum dos seus dados com terceiros. Se pretender que os seus dados sejam eliminados dos nossos servidores, contacte taylor@futureoflife.org
Perguntas mais frequentes
Quem desenvolveu esta ferramenta e porquĂȘ?
Esta ferramenta foi desenvolvida pela equipa do Instituto do Futuro da Vida. Não estamos de forma alguma associados à União Europeia. Desenvolvemos esta ferramenta voluntariamente para ajudar à implementação efectiva da Lei da IA, porque acreditamos que a Lei da IA apoia a nossa missão de garantir que a tecnologia da IA continua a ser benéfica para a vida e evita riscos extremos em grande escala.
Posso integrar esta ferramenta no meu prĂłprio sĂtio Web?
A nossa ferramenta estĂĄ construĂda de uma forma que dificulta a sua implementação noutros sĂtios. NĂŁo temos uma API disponĂvel. Por conseguinte, para quase todos os casos, sugerimos que disponibilize esta ferramenta aos utilizadores do seu sĂtio Web, ligando para esta pĂĄgina Web - pode utilizar esta imagem de maquete para apresentar a ferramenta no seu sĂtio.
Quando Ă© que a Lei da IA da UE entra em vigor?
A Lei da IA da UE entrou em vigor em 1 de agosto de 2024. Segue-se agora um perĂodo de implementação de dois a trĂȘs anos, uma vez que vĂĄrias partes da lei entram em vigor em datas diferentes. O nosso calendĂĄrio de aplicação fornece uma panorĂąmica de todas as datas-chave relacionadas com a aplicação da lei.
Durante o perĂodo de implementação, espera-se que os organismos de normalização europeus desenvolvam normas para o Ato de IA.
Quais sĂŁo as categorias de risco definidas pela Lei da IA da UE?
O quadro regulamentar da lei define quatro nĂveis de risco para os sistemas de IA: risco inaceitĂĄvel, elevado, limitado e mĂnimo ou nulo. SerĂŁo proibidos os sistemas que apresentem riscos inaceitĂĄveis, tais como ameaçar a segurança, os meios de subsistĂȘncia e os direitos das pessoas - desde a pontuação social dos governos atĂ© aos brinquedos que utilizam assistĂȘncia por voz. Os sistemas de alto risco, como os utilizados em infra-estruturas crĂticas ou na aplicação da lei, terĂŁo de cumprir requisitos rigorosos, nomeadamente em matĂ©ria de avaliação de riscos, qualidade dos dados, documentação, transparĂȘncia, controlo humano e exatidĂŁo. Os sistemas que apresentam riscos limitados, como os chatbots, devem cumprir obrigaçÔes de transparĂȘncia para que os utilizadores saibam que nĂŁo estĂŁo a interagir com humanos. Os sistemas de risco mĂnimo, como os jogos e os filtros de spam, podem ser utilizados livremente.
Que percentagem de sistemas de IA se enquadrarĂĄ na categoria de alto risco?
NĂŁo se sabe ao certo qual a percentagem de sistemas de IA que estarĂĄ na categoria de alto risco, uma vez que tanto o domĂnio da IA como a legislação ainda estĂŁo a evoluir. A ComissĂŁo Europeia estimou, num estudo de impacto, que apenas 5-15% das aplicaçÔes estariam sujeitas a regras mais rigorosas. Um estudo da appliedAI sobre 106 sistemas de IA de empresas concluiu que 18% eram de alto risco, 42% de baixo risco e 40% nĂŁo sabiam se eram de alto ou baixo risco. Os sistemas com classificação de risco pouco clara neste estudo situavam-se principalmente nos domĂnios das infra-estruturas crĂticas, do emprego, da aplicação da lei e da segurança dos produtos. Num inquĂ©rito relacionado com 113 startups de IA da UE, 33% das startups inquiridas acreditavam que os seus sistemas de IA seriam classificados como de alto risco, em comparação com os 5-15% avaliados pela ComissĂŁo Europeia.
Quais são as sançÔes previstas na Lei da IA da UE?
Com base na posição adoptada pelo Parlamento Europeu, a utilização de prĂĄticas de IA proibidas, descritas no artigo 5.Âș, pode resultar em coimas atĂ© 40 milhĂ”es de euros ou 7% do volume de negĂłcios anual a nĂvel mundial, consoante o valor mais elevado. O incumprimento dos requisitos em matĂ©ria de governação de dados (artigo 10.Âș) e dos requisitos de transparĂȘncia e prestação de informaçÔes (artigo 13.Âș) pode dar origem a coimas atĂ© 20 milhĂ”es de euros ou 4% do volume de negĂłcios mundial, se este for superior. O incumprimento de quaisquer outros requisitos ou obrigaçÔes pode dar origem a coimas atĂ© 10 milhĂ”es de euros ou 2% do volume de negĂłcios mundial, consoante o montante que for mais elevado. As coimas sĂŁo escalonadas em função da disposição violada, sendo as prĂĄticas proibidas objeto das sançÔes mais elevadas e as outras violaçÔes objeto de coimas mĂĄximas mais baixas.
Que medidas aplica o Ato UE sobre a IA especificamente para as PME?
A Lei da IA da UE tem como objetivo prestar apoio Ă s PME e Ă s empresas em fase de arranque, tal como especificado no artigo 55. As medidas especĂficas incluem a concessĂŁo de acesso prioritĂĄrio Ă s sandboxes regulamentares para as PME e as empresas em fase de arranque sediadas na UE, se os critĂ©rios de elegibilidade forem cumpridos. AlĂ©m disso, serĂŁo organizadas actividades de sensibilização e de desenvolvimento de competĂȘncias digitais adaptadas para responder Ă s necessidades das organizaçÔes mais pequenas. AlĂ©m disso, serĂŁo criados canais de comunicação especĂficos para oferecer orientaçÔes e responder a questĂ”es das PME e das empresas em fase de arranque. SerĂĄ tambĂ©m incentivada a participação das PME e de outras partes interessadas no processo de desenvolvimento de normas. Para reduzir os encargos financeiros da conformidade, as taxas de avaliação da conformidade serĂŁo reduzidas para as PME e as empresas em fase de arranque, com base em factores como a fase de desenvolvimento, a dimensĂŁo e a procura do mercado. A ComissĂŁo analisarĂĄ regularmente os custos de certificação e conformidade para as PME/startups (com o contributo de consultas transparentes) e trabalharĂĄ com os Estados-Membros para reduzir esses custos sempre que possĂvel.
Posso cumprir voluntariamente o AI Act da UE mesmo que o meu sistema não esteja abrangido pelo ùmbito de aplicação?
Sim! A ComissĂŁo, o Gabinete de IA e/ou os Estados-Membros incentivarĂŁo cĂłdigos de conduta voluntĂĄrios para os requisitos previstos no capĂtulo 2 do tĂtulo III (por exemplo, gestĂŁo de riscos, governação de dados e supervisĂŁo humana) para sistemas de IA nĂŁo considerados de alto risco. Estes cĂłdigos de conduta fornecerĂŁo soluçÔes tĂ©cnicas para a forma como um sistema de IA pode cumprir os requisitos, de acordo com o objetivo pretendido do sistema. SerĂŁo tidos em conta outros objectivos, como a sustentabilidade ambiental, a acessibilidade, a participação das partes interessadas e a diversidade das equipas de desenvolvimento. As pequenas empresas e as empresas em fase de arranque serĂŁo tidas em conta ao incentivar os cĂłdigos de conduta. Ver artigo 69.Âș sobre cĂłdigos de conduta para a aplicação voluntĂĄria de requisitos especĂficos.