O que está autorizado e o que está proibido? Descubra na edição 13 do Giro de Tendências da Vedere Marketing
Imagino que você esteja curiosa(o) para saber como fica o famoso ChatGPT nessa história. Quais são as novas regras determinadas por lei para uso de IAs generativas e as mudanças no mercado de publicidade e propaganda?
Vem comigo, que eu vou te contar.
Ah! Uma observação importante: a lei aprovada é válida somente para os países da União Europeia. Mas, provavelmente, vai se tornar um modelo para o restante do mundo, assim como aconteceu com a lei de proteção de dados.
Neste artigo, eu te apresento:
- Níveis de risco: entenda como os sistemas de IA são classificados
- Reconhecimento facial por IA: detecção de emoções é proibida em escolas e empresas
- Emoções podem mesmo ser interpretadas por IA ou reconhecimento facial, nesse caso, é só um hype?
- Impacto da regulamentação da UE nas IAs Generativas: o futuro do Chat GPT e outros
- Lei europeia define o uso de IA em atendimento ao público: o que muda para os Robôs de Atendimento
- Implementação da lei de IA na Europa e reflexos no Brasil: fases e perspectivas
Níveis de risco: entenda como os sistemas de IA são classificados
A lei europeia regula os sistemas de IA de acordo com o risco que apresentam: quanto mais perigosos, mais regras se aplicam, com maior rigor.
Existem os casos classificados como risco inaceitável – esses são proibidos!
Por exemplo: reconhecimento facial em locais públicos. Isso se enquadra como risco inaceitável, com exceção do uso dessa tecnologia para combater casos de terrorismo ou sequestro.
Mesmo que a premissa de uso seja a segurança pública, questões éticas entram em debate.
Em 2022, o metrô de São Paulo inaugurou um sistema de IA de reconhecimento facial que gerou bastante polêmica.
Segundo o Governo, o uso dessa tecnologia teria como objetivo:
- emitir alertas nas situações em que as pessoas acessam áreas não permitidas;
- monitorar crianças desacompanhadas;
- identificar pessoas desaparecidas ou procuradas pela Justiça.
Mas tudo isso traz riscos à privacidade. É um sistema que capta imagens sem o consentimento dos passageiros, incluindo imagens de crianças e adolescentes sem a autorização dos pais.
Sem falar na possível discriminação de pessoas negras. Já vimos vários casos de algoritmos reproduzindo racismo!
A Justiça chegou a impedir a instalação dessas câmeras, citando risco à LGPD, mas autorizou a nova implementação com a condição de que o sistema seja usado apenas para segurança.
Caso a lei europeia se aplicasse aqui, essa ação ou seria proibida (classificada como risco inaceitável) ou seria de certa forma flexibilizada, sendo enquadrada como sistema de risco alto.
Dentro de risco alto, estão os sistemas que fazem uso da IA em infraestrutura: trens, metrôs, aeroportos, usinas de energia e hospitais.
Reconhecimento facial por IA: detecção de emoções é proibida em escolas e empresas
Existem outros casos em que a IA de reconhecimento facial é usada, além da aplicação na segurança pública, como mencionado anteriormente. Por exemplo, para identificar emoções. As finalidades são variadas:
- hipersegmentação de mídia;
- aperfeiçoamento da base do modelo de negócio das redes sociais;
- e, de um modo geral, pode ser usada para fins comerciais e políticos, influenciando comportamentos e preferências.
Outro caso de uso, e esse bem desumano na minha opinião, é quando empresas usam IA durante entrevistas de emprego para detectar emoções possivelmente desfavoráveis.
Em escolas, também já existem casos de uso. As reações dos alunos são analisadas por uma IA com a premissa de tratar questões de saúde mental.
Na Inglaterra, tem até um robô-pet, usado para cuidar de idosos. Eles detectam emoções.
Agora, com a aplicação da leia europeia, fica proibido o uso dessa tecnologia em escolas e empresas.
Emoções podem mesmo ser interpretadas por IA ou reconhecimento facial, nesse caso, é só um hype?
Mesmo que sistemas de IA sejam usados com a premissa de aferir emoções… Será que, de fato, são eficazes?
Ou é só um hype?
Eu encontrei um artigo de uma professora de psicologia, e ela diz que esse tipo de inteligência artificial só detecta sinais físicos, e que esses movimentos do rosto não dão conta de traduzir emoções específicas de uma forma universal.
“Os mesmos movimentos faciais podem ter significado emocional diferente (ou nenhum)”, explica a autora, Lisa Feldaman Barret, da Universidade Northeastern.
Fico ainda me perguntando: e num processo seletivo, a pessoa que é responsável por entrevistar um candidato, ela não está apta, ela mesma, a interpretar emoções? Sentir?
Nós temos uma tecnologia humana maravilhosa que é a intuição.
Luisa Trajano, uma das empresárias mais admiráveis do mundo, fala abertamente em diversas entrevistas o quanto ela usa da intuição para gerir negócios. Para liderar.
Impacto da regulamentação da UE nas IAs Generativas: o futuro do Chat GPT e outros
Bom, falei de exemplos que têm risco inaceitável e risco alto.
Mas, agora, eu vou para os casos moderados ou baixos, e aqui começa a entrar o Chat GPT por exemplo, além de outras ferramentas de marketing.
As IAs que sugerem links e conteúdos na internet, com base no histórico de um usuário, foram classificadas como risco mínimo.
Por isso, não existem regras específicas novas nesta lei recém aprovada pela União Europeia. Continuam valendo as regras já existentes, determinadas no Decreto Geral de Proteção de Dados.
Quando o assunto é Chat GPT, ou qualquer outra inteligência artificial generativa – Gemini, Midjourney, Dall-e, ElevenLabs – ou seja, aquelas que conseguem criar textos, imagens ou sons, aí estamos falando de risco moderado e, na nova lei, entram, sim, algumas normas adicionais.
Por exemplo: as empresas que são donas dessas tecnologias precisam informar, detalhadamente, qual foi o banco de dados usado para alimentar e treinar seus sistemas de IA.
Elas têm 3 anos para isso, o que me parece um tempo absurdamente longo, considerando que as IAs têm avançado num ritmo muito veloz, admitido até mesmo por Elon Musk, um dos cofundadores da OpenAI, que é a empresa por trás do Chat GPT.
Na nova lei, existe uma cláusula que eu achei bem controversa. Ela permite que os desenvolvedores de IA generativa declarem que seus produtos são de baixo risco. Dessa forma, conseguem contornar algumas das regras.
Outro artigo – agora um, pelo menos, empoderando quem usa a tecnologia – é o seguinte: caso a pessoa sinta que teve algum direito violado ou que informações dela foram usadas pelas empresas de IA, elas podem solicitar aos órgão reguladores que as empresas prestem esclarecimento.
Essas empresas também são obrigadas a relatar para as autoridades qualquer problema identificado com seus produtos.
Outra regra adicional é deixar claro aos usuários que seus conteúdos foram criados por robôs. A intenção é minimizar o risco de notícias falsas e deepfakes feitos para enganar o público.
Lei europeia define o uso de IA em atendimento ao público: o que muda para os Robôs de Atendimento
Bom, a gente tem visto a IA avançar em todas as áreas. E quando a gente fala de atendimento ao consumidor, não é diferente.
Na lei europeia, existe um artigo que obriga as empresas a informarem que, numa compra ou numa pesquisa, você está interagindo com um robô.
O que a gente tem visto, em geral no mercado, é que as empresas que colocam robô para atender humanos tentam ao máximo criar uma tecnologia humanizada, que não pareça que você está conversando com um robô.
Mas, agora, na Europa, não tem jeito. Vai ter que avisar!
A meu ver, mais uma regra deveria ser adicionada: empresas deveriam ser obrigadas a dar opção de escolha para o público – você quer ser atendido por um robô ou humano?
Considerando que muitas tecnologias não são ainda efetivas em seu atendimento, e que pessoas idosas especialmente podem sentir dificuldade de uso, é importantíssimo que as pessoas possam escolher falar com um humano.
O Procon de São Paulo realizou uma consulta comportamental inédita, perguntando aos consumidores o quanto se sentem satisfeitos com os atendimentos feitos por inteligência artificial.
Mais de 90% disseram ter precisado de atendimento humano após os sistemas de IA não resolverem suas demandas.
E eu não estou aqui demonizando o uso da IA nem dizendo que não devemos usá-las.
Não, eu acredito que as IAs ajudam a simplificar processos e tornam entregas mais ágeis.
Mas, enquanto ainda não vemos operações maduras e eficientes fazendo uso da IA no campo do atendimento ao consumidor, ressurge, como tendência, a importância do relacionamento, a valorização de um atendimento bem feito.
Implementação da lei de IA na Europa e reflexos no Brasil: fases e perspectivas
Na Europa, a implementação da lei começa em maio de 2024, mas vai acontecer em fases, gradualmente, por mais 3 anos.
A primeira fase é a criação de agências para aplicar a nova lei.
Cada um dos 28 países que compõem a União Europeia vai ter sua própria agência.
Agora, se elas vão ter um bom funcionamento ou não, isso depende de uma série de fatores: composição de equipe – incluindo capacidades técnicas e diversidade humana -, além de investimentos financeiros.
Sem dinheiro, ninguém faz nada. E sem diversidade, a gente vai continuar reproduzindo vieses que privilegiam e excluem sempre os mesmos grupos.
Aqui no Brasil, existem mais de 50 projetos em andamento, só no Judiciário, envolvendo IA, de acordo com levantamento feito pela FGV.
Atualmente, a autoridade que cuida das questões de Proteção de Dados aqui no Brasil é a ANPD, vinculada ao Ministério da Justiça. E ela tem se posicionado para assumir a regulamentação de IA aqui no Brasil.
Esse foi o Giro de Tendências número 13 – Regulamentação da IA. Compartilhe o conteúdo para ajudar o movimento de conscientização.
Escrito por Felipe Figueira, CEO da Vedere Marketing.