
por Maria Luiza Reis, Dsc*

Uma recente tragédia noticiada nos jornais – a morte de uma criança devido a um erro de prescrição médica – vai além de uma falha clínica isolada. A médica reconheceu o equívoco, e a técnica de enfermagem admitiu ter estranhado a dosagem, mas aplicou-a mesmo assim por seguir ordens. Este caso, para além das investigações cabíveis, serve como um alerta severo sobre a cultura do trabalho em equipe na sociedade moderna.
A premissa fundamental de qualquer sistema coletivo é a de que pessoas falham. O antídoto para essa falibilidade inerente não é a infalibilidade individual, mas a vigilância colaborativa.
Trabalhamos em grupo justamente para que um olho critique o outro, para que uma percepção diferente intercepte um erro antes que se torne uma tragédia. A pergunta crucial é: ainda sabemos trabalhar assim?
Há uma sensação crescente de que o individualismo está corroendo este princípio. Muitas vezes, profissionais reduzem seu escopo de responsabilidade a uma lista fechada de tarefas, como se seu compromisso ético e intelectual terminasse nas bordas de sua função. “Não é minha função” ou “Já tenho problemas suficientes” tornam-se mantras que isolam e fragilizam todo o sistema. Este comportamento tem um custo altíssimo. Equipes ou instituições que veem com desdém questionamentos e críticas construtivas criam uma cultura do silêncio. Neste ambiente, evitar constrangimentos ou conflitos torna-se mais importante do que evitar desastres. O profissional com visão crítica, essencial para a resiliência do grupo, é tolhido ou marginalizado.
Aqui reside um paradoxo perigoso: ao nos comportarmos como robôs – executando ordens sem questionar, focando apenas em processos predefinidos –, nós mesmos pavimentamos o caminho para nossa substituição. A automação e a IA avançam exatamente em tarefas repetitivas, baseadas em regras e com escopo limitado.
Mas a tragédia citada expõe justamente o que máquinas não podem oferecer: responsabilidade ética, empatia e julgamento contextual. Um robô pode acumular todo o conhecimento médico do mundo e ser infinitamente rápido, mas:
- Ele não pode assumir responsabilidade por um erro, apenas apontar sua possível ocorrência.
- Ele não sente o desconforto da empatia que faz uma técnica estranhar uma dose anormal para uma criança.
Ele não busca soluções para problemas fora de seu escopo inicial porque não tem um “escopo moral”, apenas um técnico.
Pior: podemos estar criando um precedente absurdo. Um robô pode errar tanto ou mais que um humano, mas a culpa, por definição, sempre recairá sobre um ser humano – o programador, o supervisor, a instituição. Esta transferência de responsabilidade não torna o sistema mais seguro; ela dilui a accountability e afasta dos postos de liderança justamente aqueles que teriam a coragem de assumir a responsabilidade pelo todo.
O verdadeiro antídoto, portanto, não é mais tecnologia cega, mas a reafirmação corajosa do que nos faz humanos no trabalho: a coragem de questionar, o compromisso com o resultado coletivo (e não apenas com a tarefa individual) e a empatia que nos faz nos importar com as consequências de nossos atos – e dos atos dos nossos colegas.
A máxima perigosa não é “robôs vão substituir pessoas”, mas “pessoas que se comportam como robôs já se tornaram substituíveis”. Nosso valor futuro não estará em executar ordens, mas em ter o discernimento para, quando necessário, questioná-las em nome de um bem maior. É essa humanidade, intransferível e complexa, que ainda nos torna insubstituíveis e capazes de evitar as tragédias mais evitáveis.
*CEO Maps245, VP Confederação Assespro, VP Assespro RJ, Conselheira ABES Software e Diretora ABEINFO
