Ética X Tecnologia: legislação requer atualização para garantir proteção à sociedade

Por: Gladis Berlato | Em:
Tags:, ,
ética na tecnologia

Para especialista, a ética vai além da lei, ou deveria ir exigindo uma postura proativa das organizações. (Foto: Envato Elements)

Integrado ao ritmo acelerado do uso de tecnologia de ponta, o Brasil vive o dilema da ética, de fundamental presença em favor da sociedade. Embora tenha avançado na proteção de dados com a Lei Geral de Proteção de Dados (LGPD) – da mesma forma que a General Data Protection Regulation (GDPR), em vigor na Europa – convém lembrar que ambas são leis anteriores ao boom da inteligência artificial generativa e dos modelos de linguagem de grande escala.


Quer receber os conteúdos da TrendsCE no seu smartphone?
Acesse o nosso Whatsapp e dê um oi para a gente.


No item consentimento, estabelecido legalmente, o Brasil oferece uma base relevante, mas demonstra esgotamento em se tratando de transparência e finalidade de uso, dois outros princípios legais que precisam ser preservados e que deixam a desejar diante dos novos desafios como decisões automatizadas, uso não supervisionado de dados e falta de transparência dos algoritmos. Se forem aplicadas com seriedade, as leis ainda ajudam muito, mas requerem revisões e ajustes para lidar com os limites éticos das novas tecnologias.

Inovação e responsabilidade

Este é o pensamento presente nas discussões de especialistas e autoridades. É também o que defende o CEO da Prolins, Cristiano Lins (foto). “Quando falamos de tecnologia, especialmente de inteligência artificial, automação e coleta de dados, não podemos separar inovação de responsabilidade, onde a ética não é uma opção, mas um pilar”, afirma. Ele acredita que inovar não significa apenas “poder fazer”, mas sobretudo refletir se “devemos fazer” e qual o impacto que essa tecnologia trará para as pessoas, para a sociedade e para o meio ambiente.

Cristiano Lins, CEO da Prolins. (Foto: Acervo pessoal)

A promessa de soluções seguras, transparentes e justas, segundo ele, passa pela justiça algorítmica, que busca eliminar vieses e discriminações que podem ser reproduzidos por sistemas de IA, garantindo, também, que as soluções não sejam usadas para prejudicar indivíduos ou grupos.

O fato da IA ter potencial para transformar profundamente a sociedade levanta questionamentos sobre privacidade, autonomia, desemprego tecnológico e manipulação da informação. “Quem controla os dados? Como esses dados são usados? Até onde uma máquina pode tomar decisões que afetam a vida de uma pessoa”, pergunta Cristiano Lins. São dúvidas que exigem respostas em nome da privacidade e da proteção de dados.

Compromisso com a segurança

Leis como a LGPD no Brasil e o GDPR na Europa surgem justamente para proteger os direitos dos cidadãos que têm seus dados acessíveis. No entanto, mais do que cumprir leis, as empresas precisam adotar uma postura ética, garantindo que haja sempre consentimento informado, transparência no uso dos dados e um compromisso real com a segurança da informação.

“A tecnologia tem sido usada tanto para conectar como para dividir”, comenta Cristiano, referindo-se aos efeitos danosos das redes sociais como a polarização, fake news e deep fakes. “Desenvolvedores, empresas e governos precisam atuar juntos na criação de diretrizes globais que assegurem o uso responsável dessas ferramentas”, afirma.

Outro ponto crítico é a substituição de postos de trabalho por máquinas. A automação e a IA de fato eliminam algumas funções, mas também criam outras. “O desafio ético é garantir que essa transição seja feita de forma responsável, com programas de requalificação, inclusão digital e redução das desigualdades digitais”, disse, citando movimentos importantes no mundo, como o AI Act da União Europeia, as recomendações da UNESCO, da OCDE, e também o trabalho do Comitê de Ética em Inteligência Artificial no Brasil, que buscam estabelecer limites claros, critérios técnicos e princípios éticos para o desenvolvimento e uso da IA.

Ética possível e necessária

É possível ser ético diante do avanço tecnológico, especialmente com a IA, uma seara que vem demonstrando não ter limites? É possível e necessário, responde prontamente o coordenador do MBA de Negócios Digitais da Fundação Getúlio Vargas (FGV), André Miceli (foto). “O fato de a tecnologia permitir algo não significa que todas as suas funcionalidades possam ser usadas sem critérios”, explica. Ele acrescenta que a ausência de limites técnicos não justifica a ausência de limites morais controlados por seres humanos, pelas empresas e pelos programadores.

André Miceli, coordenador do MBA de Negócios Digitais da FGV. (Foto: Acervo pessoal)

A ética tem que funcionar como um guia permanente, sobretudo quando a inovação corre mais rápido do que a regulação. Já que naturalmente as leis virão depois, a ética tem que capitanear o processo de imposição de limites daquilo que a inteligência artificial pode fazer e entregar. No caso específico da IA, o desafio não é só o que é possível fazer, mas o que é justo, responsável e benéfico para a sociedade.

“O poder de inovar tem que ser acompanhado do dever de pensar nas consequências. Sem esta consciência, a inovação gera mais riscos do que progresso”, garante Miceli, ao ponderar que o poder é a capacidade técnica ou econômica de fazer algo novo, enquanto dever é a responsabilidade de considerar os impactos de qualquer novidade sobre as pessoas e sobre o meio ambiente, pensando também nas consequências.

Tríade da proteção de dados

O coordenador da FGV diz que mesmo diante das lacunas da proteção legal, é possível e urgente estabelecer limites com base nos princípios da transparência, consentimento e finalidade legítima, que constituem a base das leis de proteção de dados. Para isso, empresas e governos precisam agir com responsabilidade diante da “zona cinza” do alcance da lei para que não seja quebrado o contrato social de confiança entre pessoas e empresas quando os dados são usados de forma abusiva e não clara.

Outra preocupação é com a desigualdade digital que impõe uma ética ainda maior. Quem desenvolve e aplica tecnologias tem o dever de incluir e proteger os menos capacitados para evitar o abismo social e não ampliar ainda mais o gap tecnológico. “A ética neste caso é ainda mais necessária porque não é justo deixar que a tecnologia sirva para poucos ao invés de beneficiar muitos”, observa.

O fato requer a presença firme dos governos e da sociedade para que o conhecimento avance mais. “Alfabetização digital é uma questão de cidadania e precisa acontecer em paralelo com o avanço da tecnologia”, acredita. Governo e sociedade civil precisam entrar nisto e já há caminhos importantes sendo abertos que precisam avançar numa velocidade mais próxima do que da própria tecnologia.

Ética e moral

Ex-secretário de Telecomunicações do Ministério das Comunicações e idealizador do Pirambu Innovation, Mauro Oliveira (foto) acrescenta a moral na discussão sobre ética. “Enquanto a ética é uma reflexão crítica sobre a moral, a moral, na verdade, se refere a um conjunto de regras, de uma conduta que o grupo social estabelece”. E lembra que há duas décadas a informação tinha origem da televisão e não nas redes sociais, o que torna o cidadão também fornecedor, além de usuário.

Mauro Oliveira, idealizador do Pirambu Innovation. (Foto: Acervo pessoal)

A complexidade aumenta com a inteligência artificial que amplifica as possibilidades de fake news, confundindo a veracidade da informação. “Basta lembrar o recente exemplo das eleições americanas e da Analytics onde dados de milhões de usuários do Facebook foram usados para manipulação política sem consentimento, o que quebrou os padrões éticos, da mesma forma que aconteceu com a polarização política que tem a ver com questões de ética e de moral”, exemplifica ele, convicto de que o tema precisa ser discutido com avidez nas universidades.

“Estamos diante de uma disrupção com a inteligência artificial geral e a computação quântica, para a qual não estamos preparados porque falta transparência e mais debate”, afirma Mauro Oliveira. Ele lembra que o poder das máquinas deixou de ser ficção. São máquinas com poderes decisórios que ganharam aprendizado para compreender, mas com treinamento e cultura de sociedades avançadas, como a americana. Também este, a seu ver, é um tema que precisa ser repensado e discutido nas universidades, onde deveriam estar as preocupações com o futuro da sociedade.

Para o especialista, a ética vai além da lei, ou deveria ir exigindo uma postura proativa das organizações. Para ele, o momento é de complexidade e de ameaça à privacidade individual. “O Brasil está na arquibancada assistindo um futuro sendo construído pelas bigtechs e a ausência de discussão mais profunda poderá trazer graves consequências para a sociedade brasileira”, sentencia certo de que embora o Ministério da Ciência e Tecnologia busque formular diretrizes nacionais, através do Comitê de Ética, o tema envolvendo segurança e privacidade precisa ser discutido massivamente e estar na pauta das escolas de onde saem os jovens.

Justiça algorítmica

Especialista em transformação digital e IA, Miguel Andrade (foto) entende que no desenvolvimento tecnológico, especialmente em áreas como inteligência artificial, alguns princípios éticos vêm ganhando destaque como guias essenciais para uma inovação mais humana e justa. No caso da transparência, os sistemas, especialmente os baseados em algoritmos, devem ser compreensíveis e auditáveis, caso dos sistemas de crédito automatizados que negam empréstimos que devem permitir que o usuário entenda os critérios usados.

Miguel Andrade, especialista em IA. (Foto: Acervo pessoal)

A seu ver, é preciso ter justiça algorítmica para evitar que os algoritmos reproduzam ou ampliem preconceitos existentes. Já houve casos, como o do sistema COMPAS nos EUA, em que algoritmos de justiça criminal demonstraram viés racial. A justiça algorítmica exige que os dados e métodos sejam revistos para garantir equidade.

Também no princípio da maleficência, o de “não causar dano”, a preocupação é com os impactos negativos como vigilância abusiva, desemprego estrutural ou vício digital. Um exemplo atual é o uso de IA generativa: seu potencial deve ser equilibrado com a prevenção de desinformação e deep fakes. E o Princípio da Responsabilidade envolve garantir que haja alguém (pessoa ou instituição) responsável pelas consequências das tecnologias. Um caso emblemático é o do carro autônomo da Uber que atropelou uma pedestre em 2018: o debate jurídico e ético girou em torno de quem seria o responsável — a empresa, o software ou o motorista de segurança?

A proteção da privacidade não é apenas uma questão técnica, é uma defesa da liberdade individual em um mundo cada vez mais monitorado”, enfatiza Miguel Andrade, acrescentando que mesmo que um dado esteja legalmente disponível, seu uso pode ser eticamente questionável. Por exemplo, supermercados que analisam o comportamento de consumo para prever gravidez ou problemas de saúde dos clientes podem cruzar uma linha tênue entre personalização e invasão de privacidade — como ocorreu com a rede americana Target, que identificou a gravidez de uma adolescente antes mesmo da família saber.

O limite ético, portanto, não está apenas no que é possível ou rentável, mas no que respeita a dignidade humana, a privacidade, a equidade e o direito à não manipulação.

As leis vigentes, segundo o especialista, representam uma tentativa concreta de colocar limites éticos e legais ao poder dos dados, equilibrando inovação tecnológica com os direitos fundamentais das pessoas. Um exemplo positivo está no GDPR, que exige que usuários possam “entender e contestar” decisões automatizadas. Já em muitos casos práticos, o que se vê é o oposto: “caixas-pretas” algorítmicas que operam sem explicações, tornando o consentimento apenas formal. O desafio ético, portanto, é fazer com que o consentimento seja realmente livre, consciente e revogável, e que a transparência seja mais que um termo jurídico, seja uma prática de respeito à autonomia e à confiança do usuário.

Conscientização e educação

Para Samir Karam (foto), COO e co-fundador da Performa_IT e professor do curso de Governança de TI na Universidade Estadual de Campinas-SP, a disseminação de fake news geradas por IA é uma preocupação crescente. “O combate exige uma combinação de tecnologia e educação”, diz ele, apontando passos importantes como ferramentas de verificação automatizada, identificação de padrões sintéticos em imagens e textos, além da rotulagem de conteúdos gerados por IA. Mas destaca que é preciso investir na conscientização do público, ensinando a identificar fontes confiáveis e a questionar conteúdos duvidosos.

Samir Karam, COO e co-fundador da Performa_IT. (Foto: Acervo pessoal)

Ele explica que algumas das melhores práticas incluem a adoção de modelos explicáveis (XAI – Explainable AI), auditorias independentes, uso de dados diversificados para evitar vieses e a criação de comitês de ética em IA. “Uma das principais preocupações de segurança cibernética associada à IA inclui ataques sofisticados, como o phishing – técnica de ataque em que os criminosos tentam enganar indivíduos para que revelem informações confidenciais, como senhas e dados bancários, se passando por entidades confiáveis em comunicações digitais”.

Esses ataques podem ser ainda mais sofisticados quando combinados com IA, criando e-mails e mensagens personalizadas. Para isso, “é fundamental investir em soluções de detecção baseadas em IA, implementar autenticação multifator e garantir que os modelos de IA sejam treinados para detectar e mitigar tentativas de manipulação”.

A saída, segundo ele, é a colaboração entre empresas, governos e academia para a formulação de políticas eficazes de IA para garantir ética num mundo conectado. Samir ressalta que a regulamentação precisa ser construída de forma colaborativa: empresas trazem a visão prática do uso da tecnologia, governos estabelecem diretrizes de segurança e privacidade, enquanto a academia contribui com pesquisas e metodologias para um desenvolvimento mais seguro e ético.

Saiba mais:

Preservação dos biomas nacionais assegura transição energética saudável

Fórum de tecnologias para o Semiárido estimula startups cearenses

Top 5: Mais lidas