Ser ou não ser citado, eis a questão.” [Modificado de Shakespeare]

Provavelmente eu estaria mentindo se dissesse que não me importo se meus artigos são citados ou não pelos meus colegas cientistas. Eu me importo. Nós nos preocupamos porque, como todos os seres humanos, queremos o reconhecimento: em suma, nós queremos ser amados por todos e o tempo todo. Os seres humanos, ao contrário de outras espécies, são extremamente inseguros e a menos que lhes digam repetidas vezes o quanto são maravilhosos, ficam deprimidos e se suicidam. Isso me faz lembrar um filme dos irmãos Marx (não Karl) em que alguém diz a Groucho que ele é um indivíduo maravilhoso e que nunca conheceu alguém tão admirável e tão magnífico. Groucho nos olha e diz: “Bem, eu poderia conversar com esse cara o resto da minha vida”.

Hoje em dia, nós medimos o quanto somos amados ao contar quantas vezes aparecemos na lista de referências de um documento. Na verdade, todo mundo foi levado a acreditar que o nosso valor científico pode ser medido pelo número de citações que temos e pelo impacto da revista que publicamos. E o efeito imediato de tal obsessão é que já não se pensa ou faz a própria ciência. Nós publicamos! Tudo é voltado para publicações. Nós olhamos para os temas de pesquisa que são susceptíveis de produzir resultados publicáveis ou a partir da qual os resultados são previsíveis e, portanto, não constituem pesquisas. E nós tentamos fazer a pesquisa que resultará em certo número de artigos por ano. Projetos de longo prazo não vão adiante. Não podemos mais nos dar ao luxo de correr riscos, porque tudo o que fazemos deve ser publicável. A investigação está se tornando uma linha de montagem de fábrica. Assim, acabamos com uma enorme pilha de lixo, de papéis, de artigos simples que irão cair no esquecimento.

No início, era o número de trabalhos que contava. Logo, as pessoas aprenderam como colocar seus nomes nos artigos. Aprenderam todos os tipos de truques para conseguir seus nomes em artigos em que mal se sabia do que se tratava. Por exemplo, a troca de gentilezas entre colegas: você colocou meu nome em seu artigo e eu farei o mesmo, e vamos duplicar o nosso número de publicações. Além disso, em vez de publicar pesquisas completas, ou seja, todos os resultados, as pessoas dividem-nas em três ou quatro trabalhos para aumentar o número total. Uma excelente maneira de contornar o sistema. O resultado é que há pessoas com centenas de artigos! E eles estão orgulhosos de ter centenas de trabalhos publicados, ou no fato de terem seus nomes entre os autores, mesmo que sua contribuição seja insignificante ou nenhuma.

Nesta era de trabalhos multidisciplinares, existem artigos com um grande número de autores em que é impossível saber quem contribuiu com o quê. Autores são apenas aqueles que aparecem primeiro? E quanto aos outros? Na verdade, não existem regras rígidas sobre a ordem em que os autores aparecem em um artigo. Os mais radicais dizem que você só é um autor se for capaz de ministrar uma palestra inteira sobre o tema ou se conseguir conversar sobre o artigo todo. Eu não consigo ver como as pessoas podem ficar satisfeitas em ter seu nome em artigos sobre os quais saibam pouco ou nada saibam. E como comparar uma pessoa que publicou apenas 10 artigos ou menos, mas é o primeiro autor em todos eles com alguém que publicou 500 trabalhos, mas nunca apareceu como primeiro autor? Na tentativa de serem justos, alguns departamentos adotaram um sistema de rotação em que todos os envolvidos no projeto, mais cedo ou mais tarde, apareceriam como primeiro autor, e os outros autores eram listados em ordem alfabética. A questão da autoria é controversa e, de fato, dolorosamente intratável. E não esqueçamos que é muito mais fácil conseguir um trabalho publicado, se o editor do jornal for um amigo!

Felizmente, logo se percebeu que o número de publicações por si só não era suficiente para avaliar o valor de um cientista. Era preciso encontrar uma maneira melhor, e aí veio o índice de citação, ou seja, a contagem do número de vezes em que são citados. O índice de citação é obtido a partir de uma base de dados produzida pelo Institute of Scientific Information (ISI), nos Estados Unidos. As referências estão organizadas em banco de dados para mostrar quantas vezes cada artigo foi citado em um determinado período, e por quem. Ele é baseado inteiramente na lista de referências compiladas pelos autores e, como tal, é fortemente tendencioso e, ouso dizer, quase arbitrária. E todas as publicações que não constam da base de dados ISI simplesmente não existem. Qualquer coisa publicada em qualquer idioma diferente do inglês é jogada na lata de lixo da ciência.

Não existe alguma regra rígida e segura sobre os artigos que escolhemos citar. Nós podemos citar ou não citar quase que como queremos. Foi-se o tempo em que se esforçava para dar o crédito correto para as pessoas. Eu tenho sido citado, na maioria das vezes, por algo que não fiz ou pelos motivos errados. As pessoas variam muito na maneira de preparar a sua lista de referências. Devo confessar que sempre tento citar amigos e pessoas que conheço e, claro, minhas próprias publicações. É da natureza humana! Meu índice de citação sempre foi bom, pois sempre tive a chance de tomar uma xícara de café ou um copo de vinho com os colegas em reuniões científicas.

Alguns autores compilam uma grande lista, enquanto outros citam apenas artigos dos últimos cinco anos. Algumas revistas desencorajam uma longa lista de referências. Os artigos de revisões são citados muitas vezes e, como tal, podem esconder documentos originais. Alguns documentos metodológicos são frequentemente citados por um longo período de tempo, mais como uma questão de hábito. Então, acho que não estaria muito errado em dizer que há um forte elemento de subjetividade. Obtemos um índice de citação que é baseado em uma lista de trabalhos selecionados quase arbitrariamente. Obtemos um valor numérico, supostamente objetivo, baseado em um método não objetivo de seleção. Afinal de contas, por exemplo, é melhor ser citado uma vez em um periódico de prestígio ou muitas vezes em uma revista de segunda categoria? Além disso, e mais importante, é o fato de que nossos colegas do mundo anglo-saxônico, em particular, têm um forte preconceito contra a pesquisa realizada em países do terceiro mundo e, portanto, não tendem a citá-los. Há uma lacuna de credibilidade entre países desenvolvidos e subdesenvolvidos. Por isso, posso dizer que os documentos originários do terceiro mundo são, provavelmente, subestimados.

Em vista das dificuldades descritas acima, uma nova forma de avaliar os cientistas surgiu: o chamado fator de impacto, ou seja, quantas vezes o periódico é citado por outros. A revista é, portanto, tão boa quanto seu fator de impacto. Mas o fator de impacto tem também como base a lista original de referências compiladas pelos autores, ou seja, podemos citar as revistas que decidimos citar. Alguns cientistas vaidosos e convencidos citam apenas artigos publicados em revistas de primeira linha. A correlação entre o impacto de uma revista e o índice de citação real não é muito boa. A comunidade acadêmica e os administradores têm equiparado fator de impacto como medida de excelência, sem compreender como é calculado. Posso, por exemplo, ter um artigo publicado em uma revista de alto impacto e nunca ser citado por alguém.

Mais recentemente, uma nova tentativa foi feita para superar as dificuldades do índice de citação e do fator de impacto. Um novo cálculo, o chamado “índice H”, foi criado. Tenho medo de não ter sido capaz de compreender plenamente como é calculado, mas, novamente, é tendenciosa, pois se baseia na lista de referências compilada pelos autores. O “índice H” tem sido apresentado como melhor do que qualquer outro sistema numérico. No entanto, eu não acredito que vamos encontrar uma fórmula ou um coeficiente que leve em consideração todas as variáveis e as complexidades envolvidas na investigação científica.

A história da ciência está cheia de exemplos de descobertas científicas que foram ignoradas por um longo período de tempo. É notoriamente difícil para os contemporâneos julgar uns aos outros e decidir o que é importante ou não. Que desenvolvimento insuspeito pode sair da caixa de Pandora da ciência!

O exemplo mais clássico da incapacidade para reconhecer uma descoberta fundamental na hora certa é a do monge austríaco Gregor Mendel. Passaram quase 40 anos para que seu trabalho e suas conclusões sobre as ervilhas fossem reconhecidas por deVries e Correns como as leis fundamentais da genética! Mendel demorou oito anos para fazer seu trabalho e, aparentemente, publicou apenas dois artigos. Houve uma falha total entre os seus contemporâneos para compreender e aprender a relevância do trabalho de Mendel. Será que alguém dá dinheiro a um monge recluso para trabalhar com ervilhas? Quando Mendel morreu, em 1884, ele era uma nulidade científica. Fator de impacto zero!

Outro exemplo clássico é a descoberta da penicilina por Alexander Fleming (Prêmio Nobel de 1945). A descoberta da penicilina não foi o resultado de um projeto científico elaborado com cuidado. Foi um acidente. A placa bacteriana foi acidentalmente contaminada com fungos e Fleming observou que, em toda a placa, as bactérias haviam sido mortas. A maioria de nós teria jogado a placa longe. E, sem dúvida, Fleming foi ajudado pelo e triste tempo úmido inglês, ideal para o cultivo de fungos. Ninguém prestou muita atenção aos seus artigos publicados em 1928, e foi quase 12 anos depois que seus documentos foram redescobertos por Florey e Chain (Prêmio Nobel de 1945). A descoberta da penicilina demonstrou que é quando as experiências dão errado também é possível realizar descobertas! Fator de impacto zero!

Outro exemplo mais recente da falta de apreciação de uma descoberta não intuitiva por contemporâneos foi a do Helicobacter pylori como o agente causador das úlceras gástricas. Marshal, um médico australiano jovem e sem experiência em pesquisa, observou que pacientes com úlcera gástrica submetidos a um ciclo de tratamento com antibiótico para alguma doença infecciosa melhoravam consideravelmente ou eram curados da úlcera. Marshal e o patologista Warren (Prêmio Nobel de 2005) encontraram a Helicobacter bacterium nas lesões, e propuseram que as bactérias estavam causando a úlcera. Ninguém acreditou neles. Era impensável e contra a corrente dominante de ideias sobre as úlceras, as quais eram consideradas originadas da secreção excessiva de ácido, que por sua vez, era relacionada ao estresse e outros fatores psicológicos fantasiosos. A ideia prevalecente era de que nenhuma bactéria pudesse sobreviver no ambiente ácido do estômago. Para convencer a comunidade científica que ele estava certo, Marshal decidiu fazer uma auto experiência. Ele engoliu um coquetel contendo um grande número de Helicobacter, ficou doente e desenvolveu os sintomas de dispepsia. Uma biópsia mostrou lesões contendo bacilos. Após o tratamento antibiótico foi curado! Fator de impacto zero!

Mesmo o artigo escrito por Watson e Crick, publicado na Nature em 1953, sobre a dupla hélice do DNA, foi recebido com indiferença em alguns lugares e considerado como uma simplificação grosseira. E nove anos depois, em 1962, foram agraciados com o Prêmio Nobel.

Sidney Brenner (Prêmio Nobel de 2002) disse, com razão: “O que absolutamente importa é o conteúdo científico de um artigo, e nada vai substituir conhecê-lo ou lê-lo“. Qualidade científica só pode ser medida por peritos qualificados que leram o artigo completo, sempre publicado.

Na verdade, não é possível prever inovações científicas radicais ou mudanças conceituais fundamentais. Nós podemos ser capazes de prever invenções baseadas em conhecimentos científicos atuais, mas não temos ideia do que o futuro trará. Essa é a natureza da ciência.

___________________________________________________________

Texto escrito por Eduardo Katchburian, Professor titular da Universidade Federal de São Paulo – Escola Paulista de Medicina (Unifesp-EPM)

Fonte: Sao Paulo Medical Journal