O que o engenheiro agrônomo precisa saber sobre responsabilidade, privacidade e uso ético das ferramentas de IA
Este é o ponto mais importante: a IA é uma ferramenta, não um especialista. Se você escrever um laudo técnico baseado 100% em uma recomendação de chatbot sem revisar, e aquela recomendação estiver errada, a responsabilidade técnica é SUA — não da IA, não da empresa que fez a IA, SUA.
Exemplo: ChatGPT recomenda uma dosagem de defensivo que prejudica a cultura em vez de controlar a praga. Você aplicou sem questionar. O produtor quer seus indenização. A resposta "mas o ChatGPT disse" não funciona para o CREA, não funciona para o cliente, não funciona para a justiça.
Por isso, toda recomendação de IA precisa ser:
LGPD é a Lei Geral de Proteção de Dados do Brasil. Entra em vigor em 2020 — e você precisa estar em compliance, especialmente agora em 2024.
O que é "dado pessoal" segundo a LGPD? No contexto agrícola:
Nome, CPF, telefone, localização exata da propriedade, histórico de produção — é tudo dado pessoal do produtor.
Coordenadas GPS específicas, análises químicas de uma propriedade identificada — é dado pessoal ligado à propriedade.
"O Sr. João planta milho em safrinha e soja em safra" — esse padrão é dado pessoal que pode identificar uma estratégia comercial de alguém.
Valor de consultorias, contratos de venda, acordos comerciais — absolutamente protegido.
Agora, quando você coloca esses dados em uma IA generativa, você está enviando informações de clientes para servidores de terceiros. Você precisa ter consentimento do produtor para isso.
1. Anonimize os dados: Se você precisa pedir ajuda de IA, remova nomes e localização específica. "Um produtor de milho em Mato Grosso com ferrugem" é seguro. "João da Silva, Propriedade Boa Esperança, Cuiabá, com ferrugem" é inseguro.
2. Use IA para rascunhos, não para versão final: Use ChatGPT para escrever um rascunho de laudo. Depois, você revisa, adiciona dados específicos da propriedade, refaz as análises com sua responsabilidade profissional. O laudo final sai com a sua análise pessoal documentada, não como "gerado por IA".
3. Mantenha o agrônomo no loop: Nunca deixe a IA completamente solo. Sempre tem uma pessoa (você) que questiona, valida, aprova. Sempre há um ponto de decisão humana.
4. Escolha ferramentas com privacidade: Algumas plataformas (como ChatGPT Pro ou Claude Pro) oferecem opções de não armazenar conversas. Outras têm contratos de compliance com LGPD. Pesquise.
5. Comunique ao cliente: Se você usar IA como ferramenta de suporte, documente isso. "Este laudo foi elaborado com suporte de análise de dados via IA generativa. Análise final, responsabilidade técnica e assinatura são minhas". Transparência é melhor que esconder.
O CREA (Conselho Regional de Engenharia e Agronomia) tem responsabilidade sobre o que você faz. Se você gera um laudo completamente via IA sem revisar, assinando como se fosse sua análise pessoal, está cometendo fraude técnica.
A IA pode ajudar, pode acelerar, pode sugerir. Mas a responsabilidade pelo conteúdo técnico, pela assinatura, pela ART (Anotação de Responsabilidade Técnica) é sua como profissional registrado no CREA.
Se algo der errado e alguém processar, e ficar provado que você usou IA sem revisar, você terá problemas com:
Antes de colocar qualquer informação em uma IA generativa, pergunte-se:
Se a resposta for "não" para qualquer uma dessas perguntas, não faz o uso de IA daquela forma.
Assistiu esta aula? Marque como concluída para acompanhar seu progresso.