Uma reportagem recente do New York Times trouxe à tona um movimento que tende a se intensificar nos próximos anos: grandes empresas de tecnologia estão desenvolvendo ferramentas capazes de analisar prontuários médicos, resultados de exames e até dados coletados por dispositivos móveis. A promessa é sedutora: centralizar informações de saúde que hoje são dispersas, facilitar o acesso do usuário aos próprios dados e, em última análise, melhorar a tomada de decisões.
É inegável que se trata de um avanço tecnológico relevante. Mas, na prática, o cenário é mais sensível — e mais arriscado — do que parece. Dados de saúde não são informações comuns. São classificados como dados sensíveis, pois dizem respeito à intimidade mais profunda do indivíduo. Sua centralização em plataformas digitais, embora eficiente, pode se transformar em ponto crítico de vulnerabilidade, altamente atrativo para ataques cibernéticos.
Mas o problema não é apenas técnico. É jurídico. Há registros de que sistemas de inteligência artificial já falharam na identificação de emergências clínicas ou sugeriram orientações inadequadas. Diante disso, surge uma pergunta inevitável: quem responde quando a tecnologia erra?
Essa discussão ainda é incipiente, mas já se tornou essencial. Nas relações de consumo mediadas por tecnologia, a responsabilidade tende a se diluir entre desenvolvedores, plataformas e eventuais prestadores de serviço. Para o usuário, no entanto, o risco é concreto — e imediato.
Há ainda outro ponto crítico: o consentimento. Em teoria, o compartilhamento desses dados depende de autorização livre, informada e inequívoca. Na prática, o que se vê é a repetição de um padrão já conhecido: termos de uso extensos, linguagem técnica e uma evidente assimetria informacional entre empresas e consumidores.
No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece um regime mais rigoroso para o tratamento de dados sensíveis, incluindo os de saúde. Ainda assim, a eficácia dessa proteção depende não apenas da norma, mas de sua aplicação concreta diante de tecnologias em rápida evolução.
O Código de Defesa do Consumidor estabelece a responsabilidade objetiva e solidária dos fornecedores. Contudo, essa lógica pressupõe relações de consumo relativamente identificáveis, em que seja possível delimitar com clareza a cadeia de fornecimento e os pontos de controle. O desafio colocado pela inteligência artificial reside justamente no fato de que decisões são tomadas por sistemas opacos e integrados a múltiplos agentes, muitas vezes sem que seja possível identificar, com precisão, onde ocorreu a falha.
O debate, portanto, não é sobre impedir a inovação, mas sobre a definição clara de seus limites. A incorporação da inteligência artificial à saúde é, ao que tudo indica, inevitável. O que ainda está em aberto é o modelo de responsabilização que acompanhará esse avanço e, principalmente, o grau de proteção que será efetivamente garantido ao consumidor. A tecnologia continua prometendo respostas rápidas e decisões mais eficientes. O direito, por sua vez, precisa garantir que, quando algo der errado, também exista uma resposta clara.
Fonte: Stefano Ribeiro Ferri – Especialista em Direito do Consumidor. Relator da 6ªTurma do Tribunal de Ética da OAB/SP e membro da Comissão de Direito Civil da OAB – Campinas. Formado em direito pela Fundação Armando Alvares Penteado (FAAP).
Sobre a M2 Comunicação Jurídica
-
-
-
Clique abaixo e veja também
Proteção Anti DDOS. Para seu website
Servidor dedicado no Brasil. Personalizado conforme você precise.
Servidor VPS no Brasil. Personalizado conforme você precise.
Hospedagem compartilhada para seus projetos online
Hospedagem Claud para seus projetos online