Política de IA
Política sobre o Uso de Inteligência Artificial (IA) e Ferramentas Automatizadas na Publicação Acadêmica
Alinhada com as diretrizes do Committee on Publication Ethics (COPE)
1. Introdução e escopo
A Revista Inclusiones e sua Editorial reconhecem que as ferramentas de inteligência artificial (IA), incluindo os modelos de linguagem de grande escala (LLM, na sigla em inglês) e outras tecnologias generativas, estão transformando os processos de pesquisa e publicação acadêmica. Embora essas ferramentas possam oferecer oportunidades legítimas para otimizar certos aspectos do trabalho acadêmico, elas não substituem o pensamento crítico, a criatividade intelectual nem a responsabilidade ética que caracterizam a produção científica.
A presente política estabelece as normas que regem o uso de ferramentas de IA generativa e automatizada por parte de autores, avaliadores e editores em todos os processos editoriais da Revista Inclusiones. Esta política fundamenta-se na Declaração de Posicionamento do Committee on Publication Ethics (COPE) sobre Autoria e IA (2023) e nos princípios de transparência e integridade que guiam nosso trabalho editorial.
Para os fins desta política, entende-se por "ferramentas de IA generativa" aquelas tecnologias que criam conteúdo novo (texto, imagens, código, dados) a partir de dados de treinamento, tais como ChatGPT, Gemini, Claude, Copilot, DALL-E, Midjourney e similares. Elas se distinguem das ferramentas assistenciais convencionais (corretores ortográficos integrados, gestores de referências como Zotero ou Mendeley), as quais não requerem declaração.
2. Política para autores
2.1. Princípio fundamental: a autoria é exclusivamente humana
Em concordância com a posição do COPE, as ferramentas de IA não podem ser acreditadas como autoras nem coautoras de nenhum manuscrito enviado à Revista Inclusiones. As ferramentas de IA não podem assumir responsabilidade pelo trabalho apresentado, não são entidades legais e, portanto, não podem declarar conflitos de interesse, conceder consentimento nem gerir direitos autorais e acordos de licenciamento.
Da mesma forma, a IA generativa não pode ser citada como fonte nas referências bibliográficas, dado que não produz conhecimento original verificável nem pode garantir a exatidão ou confiabilidade de seu conteúdo.
2.2. Usos permitidos sem necessidade de declaração
Os seguintes usos de ferramentas automatizadas são considerados assistenciais e não requerem declaração:
a) Correção ortográfica e gramatical básica (corretores integrados em processadores de texto).
b) Gestão e organização de referências bibliográficas mediante software especializado (Zotero, Mendeley, EndNote).
c) Ajustes menores de formato e estilo de citação.
2.3. Usos permitidos com declaração obrigatória
Os autores devem declarar o uso de IA generativa quando esta for empregada para fins que vão além da simples correção linguística, edição e formatação. Esses usos incluem, entre outros:
d) Melhoria substancial da redação, reestruturação de parágrafos ou reformulação de argumentos.
e) Tradução de textos ou seções do manuscrito.
f) Geração ou edição de imagens, gráficos ou elementos visuais.
g) Assistência na escrita ou geração de código para análise de dados.
h) Apoio na revisão ou compilação de fontes bibliográficas.
i) Qualquer outro uso que gere conteúdo novo ou modifique substancialmente o conteúdo existente do manuscrito.
2.4. Usos não permitidos
As ferramentas de IA generativa não devem ser utilizadas para:
j) Interpretar dados ou formular conclusões científicas. A interpretação de resultados e a formulação de achados são responsabilidades intelectuais exclusivas dos autores humanos.
k) Gerar artigos completos ou substancialmente elaborados por IA sem supervisão humana significativa.
l) Fabricar dados, resultados ou referências bibliográficas.
m) Produzir conteúdo que introduza viés, informações falsas ou interpretações errôneas na pesquisa.
2.5. Responsabilidade do autor
Os autores são plenamente responsáveis pelo conteúdo integral de seu manuscrito, incluindo as seções em cuja elaboração tenham participado ferramentas de IA. Esta responsabilidade abrange a verificação da exatidão, originalidade e pertinência de todo o conteúdo, e se estende a qualquer descumprimento das normas éticas de publicação. Os autores devem garantir que o conteúdo assistido por IA não contenha:
- Referências alucinadas ou inexistentes.
- Afirmações científicas incorretas.
- Interpretações enviesadas.
- Material plagiado ou não atribuído.
2.6. Declaração de uso de IA
Ao enviar um manuscrito, os autores deverão incluir uma Declaração de Uso de IA localizada imediatamente antes da seção de Referências/Bibliografia. Esta declaração deve especificar:
- O nome e a versão da ferramenta de IA utilizada.
- O propósito específico para o qual foi empregada.
- As seções do manuscrito nas quais foi utilizada.
- A confirmação de que o autor revisou e verificou todo o conteúdo gerado ou assistido por IA.
Se não foi utilizada IA generativa, os autores deverão incluir a seguinte declaração: "Os autores declaram que não foram utilizadas ferramentas de inteligência artificial generativa na preparação deste manuscrito."
Exemplo de declaração:
"O(s) autor(es) utilizou/utilizaram o ChatGPT (OpenAI, versão GPT-4, janeiro de 2025) para melhorar a clareza e a gramática das seções de Introdução e Referencial Teórico. Todo o conteúdo foi revisado e verificado pelo(s) autor(es), que assumem plena responsabilidade pela exatidão do manuscrito."
3. Política para avaliadores (revisores por pares)
A revisão por pares constitui um pilar fundamental da integridade acadêmica e sustenta-se na confidencialidade, na competência disciplinar e no julgamento humano. Em consequência, a Revista Inclusiones estabelece as seguintes diretrizes:
Proibição de uso generativo
Os avaliadores não devem utilizar ferramentas de IA generativa para elaborar seus relatórios de avaliação. As avaliações geradas por IA apresentam riscos significativos, tais como: violação da confidencialidade do manuscrito, feedback superficial ou genérico, introdução de viés, informações falsas (incluindo referências inexistentes) e instruções ocultas (prompt injection).
Proteção da confidencialidade
É estritamente proibido inserir o conteúdo de manuscritos em avaliação em ferramentas de IA públicas (como ChatGPT, Gemini ou outros serviços baseados em nuvem), pois isso pode comprometer a confidencialidade do processo de revisão e expor informações inéditas a plataformas de terceiros.
Uso assistencial limitado
Permite-se o uso de ferramentas de IA exclusivamente para a correção linguística do próprio texto da avaliação (por exemplo, gramática ou estilo), desde que não se compartilhe informações confidenciais do manuscrito e se declare tal uso ao editor. A edição e reescrita mediante IA poderão ser aceitáveis se forem declaradas ao editor.
Detecção de uso de IA em manuscritos
Se um avaliador suspeitar do uso não declarado de IA generativa em um manuscrito sob revisão, deverá informar suas preocupações ao editor, que procederá conforme os procedimentos estabelecidos.
4. Política para editores e equipe editorial
Supervisão humana
Todas as decisões editoriais (aceitação, rejeição, solicitação de revisões) são tomadas exclusivamente por editores humanos qualificados. As ferramentas de IA não participam da tomada de decisões editoriais sobre os manuscritos.
Uso editorial de ferramentas automatizadas
A equipe editorial poderá utilizar ferramentas automatizadas para tarefas de apoio não decisórias, tais como a detecção de similaridade mediante Similarity Check do Crossref (powered by iThenticate), verificação de formatação, processamento de metadados e identificação de possíveis problemas de integridade. Os resultados dessas ferramentas serão sempre verificados por um editor ou membro da equipe editorial antes de tomar qualquer ação.
Proibições para editores
Os editores não devem utilizar ferramentas de IA generativa para redigir cartas de decisão editorial, resumos de pesquisas não publicadas nem avaliações de manuscritos.
5. Consequências do descumprimento
A falta de declaração do uso de IA ou o uso indevido de ferramentas de IA generativa poderá ser considerada uma infração às normas éticas de publicação. A Revista Inclusiones reserva-se o direito de:
n) Rejeitar o manuscrito em qualquer etapa do processo editorial.
o) Solicitar a inclusão ou correção da declaração de uso de IA antes de continuar com a avaliação.
p) Proceder à retratação do artigo se o descumprimento for detectado após a publicação, seguindo as diretrizes do COPE.
q) Notificar as instituições afiliadas dos autores em casos graves.
r) Não voltar a convidar avaliadores que utilizem IA generativa de maneira inapropriada para elaborar seus relatórios de revisão.
Todos os casos serão investigados conforme as diretrizes do COPE sobre condutas inapropriadas na publicação acadêmica.
6. Compromisso de transparência e apoio aos autores
A Revista Inclusiones está comprometida com a educação e o acompanhamento de seus autores. Durante a avaliação inicial de adequação, nossa equipe editorial fornecerá orientação clara sobre os requisitos desta política e assistirá os autores na correta formulação de sua declaração de uso de IA quando necessário.
Reconhecemos que o uso de IA não é, em si, um fator de rejeição. Um manuscrito não será rejeitado apenas pelo uso declarado de ferramentas de IA, desde que tal uso seja transparente, responsável e conforme a presente política. A decisão final dependerá sempre do mérito acadêmico avaliado mediante a revisão por pares e o Comitê Editorial.
7. Revisão e atualização desta política
Esta política será revisada periodicamente e atualizada conforme necessário para refletir os avanços tecnológicos, as novas diretrizes do COPE e outras organizações relevantes, bem como a evolução das melhores práticas na publicação acadêmica.
Referências normativas
Committee on Publication Ethics (COPE). "COPE Position Statement: Authorship and AI Tools" (2023). https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
Committee on Publication Ethics (COPE). "Guidance on AI in Peer Review" (2024). https://publicationethics.org/news/cope-publishes-guidance-on-ai-in-peer-review





