1. Aceite dos Termos
Ao utilizar o serviço do Repositório da Rede Ipê, você declara que concorda e aceita os termos e condições aqui estabelecidos e as demais regras, políticas e procedimentos dos serviços, além das leis aplicáveis.
2. Regras de Conduta
Como usuário registrado ou como convidado não registrado, você pode fazer o download do conteúdo disponível. Você deve fornecer informações de registro precisas, completas e atualizadas. O Repositório de Dados tem o direito de recusar o registro ou de cancelar uma conta.
Você é o único responsável pelas atividades que ocorrem em sua conta e será responsável por manter a confidencialidade da senha. Você nunca deve usar a conta de outro usuário sem permissão dele. Você notificará imediatamente o Repositório de Dados por escrito sobre qualquer uso não autorizado de sua conta, ou outra violação de segurança relacionada à conta.
O Repositório de Dados da Rede Ipê permite o upload de arquivos de dados, sua exibição e download, organização, aceitação e distribuição de materiais criando um dataverse. Ele permite que o usuário compartilhe um conjunto de dados, ou um Dataverse, com outros usuários, pesquisando pelo nome, sobrenome, endereço de e-mail ou nome de usuário.
Você declara e garante que tem o direito legal e tem autoridade para licenciar ao Repositório de Dados da Rede Ipê o conteúdo que você enviar ou depositar nas formas descritas neste Termo de Uso. Além disso, você declara e garante que não existe qualquer obrigação ou restrição criada por lei, contrato ou outro, que impediria que você concordasse com esse Termo de Uso.
3. Permissões do administrador do repositório da Rede Ipê
Ao Administrador é permitido alterar as restrições de acesso/download do conjunto de dados, determinando que as submissões do usuário sejam restritas. Os conjuntos de dados são, por padrão, não publicados, mas os Administradores podem modificar as restrições de acesso e publicar ou desativar qualquer Upload de usuário a qualquer momento (incluindo, mas não exclusivamente, após o recebimento de reclamações ou alegações de terceiros ou autoridades relacionadas a esse upload de usuário). Dependendo das permissões concedidas pelo Administrador do Dataverse em questão, os Depositantes também podem alterar as restrições de acesso/download do conjunto de dados, determinando que as submissões do usuário sejam restritas.
4. Licenças de uso
O Repositório de Dados da Rede Ipê usa a opção Creative Commons, especificamente a licença CC BY, que permite a distribuição, remixagem, adaptação e criação a partir de determinado trabalho, mesmo que para fins comerciais, desde que sejam dados os devidos créditos.
5. Download pelo Usuário
O Repositório de Dados da Rede Ipê declara que empreenderá todos os esforços razoáveis para manter o acesso aberto aos conjuntos de dados a serem baixados pelos usuários, sujeito às restrições dos depositantes e a quaisquer restrições legais aplicáveis.
O Repositório coleta e armazena dados de download de todos os usuários (registrados e convidados), que podem ser baixados e acessados pelo depositante. O download pode ser feito por usuários registrados ou usuários convidados que concordarem com a licença CC BY.
Os usuários afirmam que, ao baixar qualquer material do Repositório de Dados da Rede Ipê, eles:
As restrições aplicadas ao uso dos materiais são as seguintes:
6. Dar crédito à fonte dos dados com citações
Quaisquer documentos (livros, artigos, trabalhos de evento, teses, dissertações, relatórios entre outros) que referenciam ou utilizam de alguma forma os dados (no todo ou em parte) depositados em datasets do repositório devem dar crédito à fonte com a citação de dados gerada pelo Dataverse (encontrada na página do dataset). Essas citações incluem os autores, o identificador e outras informações dos dados de pesquisa.
—————x————— —————x—————
Definições de termos utilizados no texto
Acordo – Os Termos de Uso em sua totalidade.
Administrador – Quem criou, controla e é o principal organizador, curador e gerente de um Dataverse específico.
Autor – Quem conduziu a pesquisa que levou à criação do conjunto de dados. Essa pessoa pode, mas não precisa ser, o depositante.
Conjunto de dados – Um conjunto de arquivos contendo dados de pesquisa e documentação necessária para tornar os dados reutilizáveis.
Conjunto de dados não publicado – Um conjunto de dados carregado que ainda não foi disponibilizado ao público e que só pode ser visualizado pelo Depositante ou para outros usuários aos quais o Depositante concedeu acesso.
Conta – Um meio de acesso controlado pelo usuário ao Repositório que é protegida por um nome de usuário (login) e senha, criados pelo usuário, com o qual os usuários podem obter acesso às funcionalidades de upload e download.
Conteúdo – Qualquer informação, dados, texto, software, scripts, gráficos e recursos interativos encontrados em um Dataverse.
Curadoria – As ações de quem organiza, forma ou edita o status, a configuração ou o conteúdo de quaisquer conjuntos de dados ou Dataverses.
Dado de pesquisa – Dados coletados, observados ou produzidos durante a pesquisa (números, textos, imagem, som, saídas de equipamentos) para fins de análise e produção de resultados de pesquisa originais
Dataverse – Uma coleção que armazena dados de pesquisa (incluindo conjuntos de dados e outros datasets) que podem ser personalizados e gerenciados por seu proprietário.
Depositante – Quem faz upload de uma coleção de arquivos de dados como um conjunto de dados para um dataverse no aplicativo.
Documentação – Quaisquer arquivos digitais, como um codebook, relatório técnico ou metodológico ou guia do usuário, que expliquem a produção, proveniência, processamento ou interpretação dos dados da pesquisa.
Envios do usuário – Dataverses e conjuntos de dados carregados (uploaded).
Envios irrestritos do usuário – Todos os envios de usuários publicados com um contrato de renúncia de dedicação de domínio público CC0 padrão.
Informações de registro – Informações necessárias para registrar uma conta, incluindo, entre outras, nome, e-mail, instituição, cargo e número de telefone.
Metadados – Informações sobre um item no repositório, incluindo, mas não limitado, ao nome do autor, data de publicação, título do conteúdo de dados, descrição do conteúdo e outras informações relacionadas. Deve estar em conformidade com um padrão para permitir a interoperabilidade entre computadores.
Publish – Uma função disponível para Envios do Usuário pela qual os usuários podem disponibilizar publicamente seus dados e / ou seu conjunto de dados contendo arquivos de dados e publicamente pesquisáveis no mecanismo de pesquisa de aplicativos e mecanismos de pesquisa de terceiros (por exemplo, Pesquisa do Google ou Pesquisa do Bing).
Spamming – Qualquer publicidade não autorizada ou não solicitada, lixo eletrônico ou em massa, mensagens, comentários ou outras comunicações direta ou indiretamente decorrentes do uso do Repositório, incluindo, mas não limitado a, comentários postados nas páginas e mensagens do conjunto de dados do Autor ou outras comunicações enviados para os endereços de e-mail, contas ou outros meios de contato do usuário.
Uploads do usuário – Qualquer conteúdo carregado, enviado, distribuído ou publicado por um usuário, incluindo, mas não limitado a novos dados, novos conjuntos de dados, informações de metadados, contratos de licença de uso de dados personalizados, informações descritivas para páginas de download de conjuntos de dados, guias de usuário e outras contribuições originadas do usuário autor ou depositante.
Usuário – Qualquer indivíduo ou entidade que possua e/ou controle uma conta registrada no Repositório.
1. Aceite dos Termos
Ao utilizar o serviço do Repositório da RNP, você declara que concorda e aceita os termos e condições aqui estabelecidos e as demais regras, políticas e procedimentos dos serviços, além das leis aplicáveis.
2. Regras de conduta
Como usuário registrado ou como convidado não registrado, você pode fazer o download do conteúdo disponível publicamente no Repositório de Dados. Você deve fornecer informações de registro precisas, completas e atualizadas. O Repositório de Dados tem o direito de recusar o registro ou cancelar uma conta.
Você é o único responsável pelas atividades que ocorrem em sua conta e será responsável por manter a confidencialidade da senha. Você nunca deve usar a conta de outro usuário sem permissão dele. Você notificará imediatamente o Repositório de Dados por escrito sobre qualquer uso não autorizado de sua conta, ou outra violação de segurança relacionada à conta.
Ao ter uma conta no Repositório, você reconhece que:
3. Upload pelo usuário
O Repositório da RNP não se responsabiliza por qualquer upload. Também não são de responsabilidade do Repositório RNP:
Ao fazer uploads, ou permitir que outros o façam, você endossa que:
Você ainda se responsabiliza por notificar o Administrador do Repositório RNP caso tenha conhecimento de qualquer problema depois de enviar um upload, como por exemplo: inconsistências de confidencialidade, privacidade ou proteção de dados, licenciamento ou propriedade intelectual relacionados a ele.
Licenças de uso
O Repositório de Dados usa a opção Creative Commons CC BY como licença padrão. Essa opção permite que outras pessoas redistribuam, remixem, adaptem e criem novos materiais a partir do seu trabalho, até mesmo comercialmente, desde que seja atribuído o devido crédito.
As restrições aplicadas ao uso dos dados referem-se a:
Os usuários do repositório devem fomentar o bom uso dos dados relacionados a seres humanos. Os dados com essas características não devem ser utilizados para:
Você concede ao Repositório da RNP todas as permissões e licenças necessárias para o arquivamento, a preservação e o acesso ao conteúdo depositado. Isso inclui, sem restrição, permissão para:
Você declara e garante que tem o direito e a autoridade para licenciar no Repositório de Dados o conteúdo depositado nas formas descritas neste Termo de Uso. Além disso, declara e garante que não existe qualquer obrigação ou restrição criada por lei, contrato ou outro que impeça que você concorde com esse Termo de Uso.
Dar crédito à fonte dos dados com citações
Ao baixar conjuntos de dados do Repositório você concorda em cumprir a seguinte norma: quaisquer materiais elaborados (livros, artigos, trabalhos de conferência, teses, dissertações, relatórios e outras publicações) que utilizem os dados do repositório (no todo ou em parte) coletados de conjuntos de dados depositados devem creditar a fonte dos dados utilizados. As citações incluem, necessariamente, os autores e as informações sobre os dado, além de outras informações que forneçam acesso aos dados de pesquisa.
—————x————— —————x—————
Definições de termos utilizados no texto
Acordo – Os Termos de Uso em sua totalidade.
Administrador – Quem criou, controla e é o principal organizador, curador e gerente de um Dataverse específico.
Autor – Quem conduziu a pesquisa que levou à criação do conjunto de dados. Essa pessoa pode, mas não precisa ser, o depositante.
Conjunto de dados – Um conjunto de arquivos contendo dados de pesquisa e documentação necessária para tornar os dados reutilizáveis.
Conjunto de dados não publicado – Um conjunto de dados carregado que ainda não foi disponibilizado ao público e que só pode ser visualizado pelo Depositante ou para outros usuários aos quais o Depositante concedeu acesso.
Conta – Um meio de acesso controlado pelo usuário ao Repositório que é protegida por um nome de usuário (login) e senha, criados pelo usuário, com o qual os usuários podem obter acesso às funcionalidades de upload e download.
Conteúdo – Qualquer informação, dados, texto, software, scripts, gráficos e recursos interativos encontrados em um Dataverse.
Curadoria – As ações de quem organiza, forma ou edita o status, a configuração ou o conteúdo de quaisquer conjuntos de dados ou Dataverses.
Dado de pesquisa – Dados coletados, observados ou produzidos durante a pesquisa (números, textos, imagem, som, saídas de equipamentos) para fins de análise e produção de resultados de pesquisa originais
Dataverse – Uma coleção que armazena dados de pesquisa (incluindo conjuntos de dados e outros datasets) que podem ser personalizados e gerenciados por seu proprietário.
Depositante – Quem faz upload de uma coleção de arquivos de dados como um conjunto de dados para um dataverse no aplicativo.
Documentação – Quaisquer arquivos digitais, como um codebook, relatório técnico ou metodológico ou guia do usuário, que expliquem a produção, proveniência, processamento ou interpretação dos dados da pesquisa.
Envios do usuário – Dataverses e conjuntos de dados carregados (uploaded).
Envios irrestritos do usuário – Todos os envios de usuários publicados com um contrato de renúncia de dedicação de domínio público CC0 padrão.
Informações de registro – Informações necessárias para registrar uma conta, incluindo, entre outras, nome, e-mail, instituição, cargo e número de telefone.
Metadados – Informações sobre um item no repositório, incluindo, mas não limitado, ao nome do autor, data de publicação, título do conteúdo de dados, descrição do conteúdo e outras informações relacionadas. Deve estar em conformidade com um padrão para permitir a interoperabilidade entre computadores.
Publish – Uma função disponível para Envios do Usuário pela qual os usuários podem disponibilizar publicamente seus dados e / ou seu conjunto de dados contendo arquivos de dados e publicamente pesquisáveis no mecanismo de pesquisa de aplicativos e mecanismos de pesquisa de terceiros (por exemplo, Pesquisa do Google ou Pesquisa do Bing).
Spamming – Qualquer publicidade não autorizada ou não solicitada, lixo eletrônico ou em massa, mensagens, comentários ou outras comunicações direta ou indiretamente decorrentes do uso do Repositório, incluindo, mas não limitado a, comentários postados nas páginas e mensagens do conjunto de dados do Autor ou outras comunicações enviados para os endereços de e-mail, contas ou outros meios de contato do usuário.
Uploads do usuário – Qualquer conteúdo carregado, enviado, distribuído ou publicado por um usuário, incluindo, mas não limitado a novos dados, novos conjuntos de dados, informações de metadados, contratos de licença de uso de dados personalizados, informações descritivas para páginas de download de conjuntos de dados, guias de usuário e outras contribuições originadas do usuário autor ou depositante.
Usuário – Qualquer indivíduo ou entidade que possua e/ou controle uma conta registrada no Repositório.
O terceiro relatório do Projeto RDP refere-se ao desenvolvimento desse site. Atualmente, a maioria do conteúdo fica a cargo do Grupo Nacional RDA do Brasil, porém este site ainda servirá de ponte entre os contatos e o grupo, modificando, assim, a ideia inicial dele. De qualquer forma, se conclui que o maior desafio é reunir as pessoas com interesse em dados de pesquisa de forma a gerar comunidades de práticas, por isso a abertura do grupo no portal RDA que atualmente se desenvolve.
Para acessar o conteúdo do relatório na íntegra, clique aqui.
A RDP Brasil – Acesso Aberto a Dados de Pesquisa vem ao público informar uma mudança a ser implementada no projeto. Diante da, cada vez mais evidente, necessidade de organizarmo-nos de forma conjunta para discutir e ampliar os debates certa do desenvolvimento da Ciência Aberta em território brasileiro, criou-se um grupo nacional destinado a pesquisadores brasileiros dentro da Research Data Alliance.
Dessa forma, o presente site deixará de produzir conteúdos referentes a dados de pesquisa de forma periódica, apenas ocasional. Tal função ficará a cargo do Grupo Nacional RDA Brasil. A equipe do blog Dados de Pesquisa Abertos convida todos os interessados a juntar-se ao grupo clicando aqui.
Sigam conosco.
Este projeto, encabeçado pela Data Archiving and Networked Services (DANS), pretende promover práticas de dados com o princípio FAIR na Europa. O FAIRsFAIR (Fostering Fair Data Pratices in Europe) tem como missão ajudar os órgãos de governança da European Open Science Cloud (EOSC) a fornecer regras de participação alinhadas com a FAIR na EOSC. Essas regras serão projetadas para estabelecer a conformidade dos componentes e práticas do FAIR. Além disso, o FAIRsFAIR propõe abrir e compartilhar todo o conhecimento, experiência, diretrizes, implementações, novas trajetórias, cursos e educação necessários para transformar o princípio FAIR em realidade, visando contribuir para uma mudança de cultura necessária para alcançar uma ampla adoção de práticas justas dentro do EOSC e além.
Pois bem, o projeto completa um mês de existência, e tudo indica que prosperará pelos próximos três anos, quando tem a previsão de encerramento. Foram nos dias 14 e 15 de março que, em Amsterdã, o FAIRsFAIR teve início com uma reunião com mais de 80 pesquisadores membros.
Pesquisadores ambientais, cientistas da área de saúde e alimentos, físicos e cientistas sociais compartilham pelo menos dois aspectos: todos eles conduzem e executam pesquisas e, ao fazê-lo, criam dados. A questão é, como eles podem se certificar de que esses dados sejam Findable (Acháveis), Accessible (Acessíveis), Interoperable (Interoperáveis) and Reusable (Reutilizáveis)? FAIRsFAIR abordará esta questão juntamente com perguntas sobre o FAIRness no nível de software e repositórios, entre outros.
No primeiro dia da reunião inicial, vários parceiros nos projetos relacionados ao FAIRsFAIR delinearam as semelhanças no contexto do EOSC. Representantes de projetos relacionados dentro de diversos domínios científicos e infra-estruturas de pesquisa falaram sobre até que ponto eles estão relacionados ao FAIRsFAIR e como as partes podem unir forças em todos os níveis.
O segundo dia foi sobre discussões aprofundadas: os participantes discutiram o conteúdo de seus pacotes de trabalho uns com os outros. As sobreposições entre os pacotes de trabalho exigem que os parceiros deliberem sua abordagem para implementar os princípios do FAIR. Durante as sessões de discussão, foram feitos planos concretos para o trabalho inicial a ser realizado.
Depois de dois dias intensos com discussões substanciais, tempo para se conhecerem e fazer contatos, ficou claro que o projeto FAIRsFAIR passará por uma jornada de aventura, porém, tudo indica que será uma ferramenta relevante no fomento de novas práticas que valorizem os dados de pesquisa num contexto de Ciência Aberta.
Notícias sobre o projeto podem ser acompanhadas neste link.
Compartilhar dados de pesquisa é uma prática cada vez mais incentivada por instituições e comunidades de pesquisa. Nesse viés, no dia 11 de Abril de 2019, ocorrerá o Webinar LIBER, no horário das 10h (de Brasília). Esta webconferência contará com a participação de Kathleen Gregory (DANS), que apresentará uma visão geral de pesquisas recentes que investigam como pesquisadores e bibliotecários se engajam em práticas para encontrar, entender e reutilizar dados de pesquisa.
A LIBER é a Ligue des Bibliothèques Européennes de Recherche (Associação das Bibliotecas Europeias de Pesquisa, em tradução livre), que objetiva ser a voz da comunidade de bibliotecas de pesquisa da Europa. Sua missão é capacitar pesquisas de classe mundial, representando os interesses das suas instituições, suas universidades e seus pesquisadores em várias áreas-chave. Cerca de 450 bibliotecas fazem parte da LIBER.
Neste Webinar, Kathleen Gregory fornecerá dicas para encontrar dados de pesquisa, sendo esta uma oportunidade para os participantes considerarem o que esta pesquisa significa para o desenvolvimento de serviços em suas próprias organizações.
Políticas, ferramentas e programas de treinamento estão sendo desenvolvidos para auxiliar pesquisadores e provedores de dados a disponibilizar dados de maneira a otimizar a localização, acessibilidade, interoperabilidade e reusabilidade dos dados (ou seja, de acordo com os princípios do FAIR). Uma das promessas que impulsionam tanto o compartilhamento de dados quanto o desenvolvimento de políticas é que os dados compartilhados podem e serão descobertos e reutilizados; mas os usuários (pesquisadores, bibliotecários, estudantes) estão descobrindo esses dados? E se eles estão encontrando, (como) eles estão reutilizando-os?
Este webinar é organizado pelo Grupo de Trabalho de Gerenciamento de Dados de Pesquisa da LIBER. Para mais informações, acesse a página do evento. A inscrição é possível através de um formulário de inscrição online.
Foi o Consulative Committee for Space Data Systems (CCSDS) que criou um modelo de referência no que se refere à preservação digital que vamos abordar nessa postagem – seu intuito foi o de padronizar atividades de preservação digital. O nome desse modelo é Open Archival Information System, que atende pela sigla OAIS. É um modelo complexo de referência sobre como deve ser um sistema de informação de arquivo para a preservação digital permanente. A sua tradução, inclusive, também é tema de certo debate; pode ser “Sistema de Informação de Arquivamento Aberto” ou “Sistema Aberto de Informação de Arquivo” – sendo a primeira versão mais utilizada pelos tradutores hispânicos, ou, no Brasil, SAAI (Sistema Aberto de Arquivamento de Informação). O termo “aberto” significa que o modelo foi desenvolvido em fóruns abertos e não necessariamente que o acesso ao arquivo seja ilimitado.
OAIS, portanto, é o modelo de referência que define os processos necessários para que se preserve e se chegue aos objetos de forma efetiva e a longo prazo, estabelecendo entre eles uma linguagem em comum. Como o próprio nome diz, trata-se de um modelo e, portanto, não especifica uma forma de como fazer esses processos, mas sim um jeito de fazê-lo de forma exitosa, descrevendo as funcionalidades básicas e os tipos de informação requeridos para sua preservação. OAIS identifica as obrigatórias responsabilidades, bem como as interações dos produtores, consumidores e gestores dos documentos (tanto em papel como digitais). Contribui, assim dizer, para um método que busca descrever a funcionalidade de repositório, proporcionando modelos detalhados de informação e funções arquivísticas.
O CCSDS é um corpo normativo que mantém um enfoque em dados terrestres e do espaço (fundado em 1982 pelas principais agências aeroespaciais do mundo, como um fórum multinacional); o OAIS, por este corpo desenvolvido, passou a ampliar seu horizonte em um conjunto de coletivos mais amplo ainda do que quem o criou. O CCSDS tratou, assim, de deixar o OAIS aplicável a uma ampla variedade de tipos de repositórios – nesse sentido, esse modelo converteu-se em uma língua universal para os sistemas de informação arquivísticos, que tem sido amplamente adotada por possibilitar a comunicação efetiva entre projetos de escala nacional e internacional.
Como o próprio documento do CCSDS acerca do modelo OAIS diz, este é um arquivo consistente em uma organização, que pode formar parte de outra maior, em pessoas e sistemas que aceitaram a responsabilidade de preservar informação e fazê-la acessível a uma Comunidade Designada. O conceito de Comunidade Designada (Designated Community), segundo a definição do glossário do modelo, é “um grupo identificado de consumidores potenciais que deve ser capaz de entender um conjunto particular de informação”. O OAIS, então, ainda segundo esse documento:
O modelo OAIS foi criado por e para quem tem necessidades concretas sobre a preservação e acesso de dados a longo prazo, assim, se pode aplicar em qualquer repositório, especialmente em aquelas organizações com responsabilidades de manter a informação acessível por um longo período de tempo. Lembrando que isso vale não apenas para organizações, mas também indivíduos que percebam essa importância, bem como quem precisa obter certos arquivos e não estão ligados a quem os manteve ali.
Por fim, como base conceitual, o OAIS parte do princípio de que é mais difícil preservar informação digital que em papel ou filme, pois entre o ônus da tecnologia está a rápida obsolescência e seus consequentes perigos de perda da informação. Mesmo assim, considera que não se trata de uma questão exclusivamente tecnológica, mas também com implicações organizacionais, legais, industriais, científicas e culturais que devem ser levadas em consideração. Ignorar os problemas da preservação da informação em formato digital acarretaria a sua perda.
Temos que o OAIS tem o propósito de promover uma variedade de funções e sistemas de armazenamento e preservação, logrando seus objetivos vencendo o problema da obsolescência da informação digital e ao mesmo tempo minimizando os custos dessa operação. Tem, portanto, fundamental relevância com a temática de compartilhamento de dados de pesquisa, e se tornou em 2003 uma norma internacional, ISO 14721:2003.
Se interessou em saber mais? Acesse este documento editado pelo Conselho Nacional de Arquivos (Conarq).
Ainda em versão beta, a Google lançou recentemente uma ótima opção que objetiva facilitar o acesso da comunidade acadêmica a um conjunto de dados de pesquisa, que em geral estão espalhados em repositórios online. Dentre os repositórios que a Dataset Search tem acesso a dados completos de diversos tipos de estudos estão agências governamentais, bibliotecas digitais, sites de editoras ou páginas pessoais de cientistas.
Esse serviço vem para ampliar ainda mais os recursos da Google para a comunidade acadêmica e científica. Antes, já havia o Google Acadêmico, porém verificou-se que havia demanda para uma ferramenta que buscasse especificamente dados de pesquisa.
Segundo a pesquisadora em inteligência artificial da Google, Natasha Noy, existe um foco em dados de ciência ambiental, ciências sociais e de pesquisa governamental, porém, à medida que a Dataset Search se torne mais popular, a tendência é que a quantidade de conjuntos de dados disponível aumente.
Existe o fomento a que os fornecedores de dados utilizem o padrão aberto desenvolvido pela empresa para fazer uso do compartilhamento; é mais uma opção que auxilia o fazer científico para que as informações e dados se tornem cada vez mais acessíveis e para uma gama de pesquisadores cada vez maior.
Após a conclusão do I Relatório do nosso projeto, está terminado também o segundo. Intitulado “Práticas e Percepções dos Pesquisadores”, traz 91 páginas de dados obtidos através de uma pesquisa tipo survey, onde os pesquisadores foram contatados via e-mail e lhes foi pedido que respondessem o questionário “Práticas e percepções sobre acesso aberto a dados de pesquisa”, que continha 27 questões e foi respondido por 4.703 pessoas.
Dentre os principais resultados, demonstra-se que 49,36% dos respondentes nunca havia utilizado dados compartilhados, enquanto 23,49% nunca compartilharam dados, contra 53,79% que mantêm essa prática. Ainda, nota-se que 58, 41% dos respondentes apontaram não ter à sua disposição um repositório institucional para compartilhamento de dados de pesquisa. Pode-se concluir que a prática de compartilhamento total e irrestrito ainda não é algo comumente aceito, embora tenha certa receptividade.
Ficou interessado? Clique aqui e leia o II Relatório na íntegra.
A Fiocruz (Fundação Oswaldo Cruz) está lançando de forma inédita um microcurso de Formação em Ciência Aberta. Ao todo, são sete cursos que serão oferecidos online à distância e de forma gratuita. Tudo isso é possível através da “Formação Modular”, que é uma realização da Vice-presidência de Educação, Informação e Comunicação (VPEIC/Fiocruz), através do Campus Virtual Fiocruz.
As inscrições já estão abertas para o primeiro curso (clique aqui para se inscrever), intitulado O que é Ciência Aberta?. A carga horária é de 10h e é gerado um certificado de participação.
Outros cursos serão ofertados no decorrer dos próximos meses e mais informações podem ser acessadas aqui.
Foi um ano intenso de trabalho e pesquisa para a equipe do Programa Nacional de Acesso Aberto a Dados de Pesquisa. Diversas reuniões foram feitas e alguns objetivos alcançados. Seguiremos no próximo ano com o intuito de fomentar e promover o compartilhamento de dados entre pesquisadores, conferindo maior eficiência na produção de conhecimento científico no Brasil, como diz o nosso site.
O site, a propósito, seguirá tendo suas atualizações a cada novidade apresentada na área. Seja um novo repositório ou qualquer outra ferramenta que inventive e auxilie no compartilhamento de dados em Ciência Aberta. Nossa proposta é manter todos os interessados na área a par de atualizações que podem ocorrer no meio.
Estaremos operando o site e os nossos canais de comunicação novamente no dia 14.01.2018. Qualquer contato poderá ser feito através do e-mail dadosdepesquisa@rnp.br, ou então através das nossas contas do Twitter ou Facebook.
Um próspero 2019 a todos que acreditam no caminho da Ciência Aberta.
A Parceria para Governo Aberto ou OGP (do inglês Open Government Partnership) é uma iniciativa internacional que pretende difundir e incentivar globalmente práticas governamentais relacionadas à transparência dos governos, ao acesso à informação pública e à participação social.
A OGP foi lançada em 20 de setembro de 2011, quando os oito países fundadores da Parceria (África do Sul, Brasil, Estados Unidos, Filipinas, Indonésia, México, Noruega e Reino Unido) assinaram a Declaração de Governo Aberto e apresentaram seus Planos de Ação. Atualmente, 75 países integram a Parceria.
Congregando nações e organizações da sociedade civil, líderes em transparência e governo aberto, a OGP é um veículo para se avançar mundialmente no fortalecimento das democracias, na luta contra a corrupção e no fomento a inovações e tecnologias para transformar a governança do século XXI. No total, os países integrantes da OGP assumiram até agora cerca de mil compromissos para tornar seus governos mais transparentes.
Sobre a participação brasileira
Como um dos co-fundadores da OGP, o Brasil está fortemente comprometido em fortalecer a transparência das ações do governo, prevenir e combater a corrupção, fomentar os ideais democráticos com a participação do cidadão na tomada de decisões e na melhoria dos serviços públicos. Nos últimos 10 anos, o país desenvolveu várias iniciativas para melhorar sua estrutura legal, promover a participação dos cidadãos e usar a tecnologia para uma maior abertura.
Em seu primeiro Plano de Ação para a OGP, o Brasil assumiu 32 compromissos. Esses compromissos produziram muitos benefícios importantes, como a criação do Portal de Dados Abertos, a organização da conferência nacional sobre transparência (CONSOCIAL) – que envolveu mais de 100 mil cidadãos – e a implementação da Lei Brasileira de Acesso à Informação. Mais de 90% desses compromissos foram total ou parcialmente implementados e o país também concluiu outras 11 iniciativas de governo aberto que não faziam originalmente parte do Plano de Ação.
Para o segundo plano, o Brasil utilizou um processo de participação mais amplo, discutindo ações com os cidadãos na Internet por mais de dois meses e com uma reunião presencial que convidou mais de 80 organizações da sociedade civil (OSCs) e funcionários governamentais de várias agências para discutir ação governamental aberta. Como resultado, o país desenvolveu um plano de ação mais ousado, com 52 compromissos – 19 dos propostos pelas OSCs – e o envolvimento de 17 órgãos governamentais. A coordenação do Plano do Governo Aberto é organizada por um Comitê Interministerial sobre Governo Aberto (CIGA).
Este post tem o intuito de apresentar ao nosso leitor uma ferramenta cuja missão é tornar o código científico mais reutilizável, executável e reproduzível: falamos do Code Ocean, uma plataforma de reprodutividade computacional baseada em nuvem, inventada como parte do Programa de Pós-Graduação em Startups de Runway 2014 no Instituto Jacobs Technion Cornell. Ela fornece aos pesquisadores e desenvolvedores uma bandeira fácil de compartilhar, descobrir e executar códigos publicados em revistas acadêmicas.
Cada vez mais as pesquisas de hoje incluem código de software, análise estatística e algoritmos que não estão incluídos na publicação tradicional, mas que são muitas vezes essenciais para reproduzir os resultados da pesquisa e reutilizá-los em um novo produto ou pesquisa. Isso cria um grande obstáculo para os pesquisadores e serviu de inspiração para a criação da plataforma.
Pela primeira vez, pesquisadores, engenheiros, desenvolvedores e cientistas podem fazer upload de códigos e dados em qualquer linguagem de programação de código aberto e vincular o código de trabalho em um ambiente computacional com o artigo associado gratuitamente. A Code Ocean atribui um Identificador de Objeto Digital (DOI) ao algoritmo, fornecendo uma atribuição correta e uma conexão com a pesquisa publicada.
A plataforma fornece acesso aberto ao código de software publicado e dados para visualizar e baixar para todos gratuitamente. Uma grande sacada é que os usuários podem executar todo o código publicado sem instalar nada em seu computador pessoal . Tudo é executado na nuvem em CPUs ou GPUs de acordo com as necessidades do usuário. Isso facilita a alteração de parâmetros, a modificação do código, o upload de dados, a execução e a alteração dos resultados.
Recentemente, a Code Ocean venceu o Prêmio Inovação em Publicação na ALPSP 2018.
Encarando os desafios da formulação de uma política que fomente um novo fazer científico, mais colaborativo, transparente e sustentável, o Grupo de Trabalho em Ciência Aberta (GTCA) lança no dia 22 de novembro, na Tenda da Ciência, em Manguinhos, o estudo ‘Marcos legais nacionais em face da abertura de dados para pesquisa em saúde: Dados pessoais, sensíveis ou sigilosos e propriedade intelectual’, organizado por Paulo Guanaes, profissional vinculado à Escola Politécnica Joaquim Venâncio. Além da publicação, que reúne e analisa as normas legais e sua incidência sobre a abertura de dados para pesquisa no Brasil, o evento também marca o lançamento do curso “Do Acesso à Ciência Aberta – Programa de Formação Modular em Ciência Aberta” pela diretora da Escola Corporativa da Fiocruz, Carla Kaufmann. O curso, na modalidade educação a distância, aborda principais conceitos, potenciais benefícios e visões críticas sobre a Ciência Aberta, dialogando com o panorama internacional e apresentando uma perspectiva brasileira com ênfase na saúde pública.
O evento “Gestão e Abertura de Dados para Pesquisa na Fiocruz: Oportunidades de Capacitação em Ciência Aberta e Marcos Legais Brasileiros“ é mais uma etapa do processo promovido pelo GTCA para fomentar o amplo debate para a definição de diretrizes institucionais para a gestão e o compartilhamento de dados para pesquisa, iniciado em junho com a apresentação do Termo de Referência: Gestão e abertura de dados para pesquisa na Fiocruz.
O evento pode ser conferido via streaming através desse link: http://www.tvq.com.br/aovivo/fiocruz.
Clique aqui e confira a programação completa.
Este texto é uma contribuição de Renata Curty,
PhD – Information Science & Technology, School of Information Studies – Syracuse University
Professora Adjunta do Departamento de Ciência da Informação da Universidade Estadual de Londrina
Esta é uma pergunta frequente por parte dos pesquisadores quando falamos sobre a importância do compartilhamento de dados científicos para acesso aberto como forma de melhor aproveitar recursos públicos injetados em pesquisa, estimular transparência e a reprodutibilidade em ciência. Geralmente essa dúvida é carregada de certa angústia, pois os cientistas surgem atendendo exigências de editores e de agências de fomento internacionais e nacionais no que tange ao compartilhamento de dados, dos quais seus financiamentos e publicações têm sido cada vez mais diretamente dependentes.
A inquietação se dá pela novidade. No Brasil, os esforços para o compartilhamento sistemático de dados de pesquisa, de modo mais abrangente e aberto, são relativamente recentes. A FAPESP, agência de fomento estadual de maior orçamento do país começou a exigir planos de gestão de dados (Data Management Plans – DMP) em 2017, mas suas orientações não são explícitas quanto às opções de repositórios para armazenamento dos dados; muito semelhante à experiência dos EUA. Em 2011, quando a National Science Foundation (NSF), uma das principais agências federais de fomento à pesquisa estadunidense, implementou o mandado para compartilhamento de dados (data sharing mandates), a situação não era diferente.
Lembro de quando eu e meus coautores participamos em 2013 de uma plenária no Research and Data Access and Preservation (RDAP) Summit em que apresentamos as estratégias para compartilhamento e reuso de dados adotadas pelos pesquisadores contemplados com recursos federais, desde a introdução dessa obrigatoriedade pela NSF[1]. Naquela época, observamos, tanto pelos dados obtidos pela pesquisa, quanto pelas questões e relatos dos pesquisadores presentes no evento, a dificuldade de decisão dos pesquisadores acerca do destino dos dados. A NSF não instruía os pesquisadores onde os dados deveriam ser compartilhados e os deixava livre para tal decisão, mas exigia que essa informação constasse no DMP. Muitos eram céticos quanto à capacidade da NSF efetivamente verificar o destino dos dados, e determinar se o compartilhamento havia sido feito de modo satisfatório. Mesmo assim, não deixariam de proceder com o compartilhamento, mesmo que inseguros sobre suas decisões, temendo as consequências de corte de recursos. Até mesmo para aqueles que por altruísmo já tinham o hábito de compartilhardados de pesquisa, essa prática era pouco planejada e realizada ad hoc.
A falta de direcionamento e suporte nessa fase inicial teve consequências tão ruins quanto óbvias. O compartilhamento de dados via repositórios mais genéricos e não necessariamente comprometidos com o reuso de dados foi a estratégia mais adotada. Afinal, bastava “colocá-los em algum lugar e informar sobre seu paradeiro”.
De modo a atender às exigências impostas, muitos pesquisadores depositaram seus dados em repositórios abertos sem critérios para a escolha de tais plataformas. O Figshare foi opção de muitos. Com os motes “Crédito para toda a sua pesquisa” e “Abrindo os dados científicos para o mundo”, a plataforma agrega recursos de compartilhamento e visibilidade, métricas e contagens de impacto e aceita uma gama de tipos de dados e arquivos. Na mesma proporção em que o Figshare atende às necessidades dos pesquisadores que compartilham, dada a usabilidade e simplicidade na ponta inicial do processo, ela peca em condições de reusabilidade futura dos dados; objetivo-alvo do compartilhamento. Enquanto a plataforma ajuda na difusão rápida dos dados, os metadados exigidos e a validação de campos para o upload de arquivos são mínimos. Uma breve navegação pela plataforma revela que, em muitos casos, a documentação da coleção de dados é praticamente inexistente, comprometendo diretamente sua interpretação e potencial reuso.
Com o passar dos anos as bibliotecas universitárias e de centros de pesquisa, os comitês de área, bem como as associações científicas estadunidenses começaram a qualificar repositórios confiáveis e mais apropriados para o compartilhamento. Nesse processo, alguns repositórios foram aprimorados, outros criados, dentre os quais muitos com foco disciplinar, visando atender às necessidades específicas das disciplinas e campos científicos. Tais repositórios de dados começaram a investir em padrões, agregação de conteúdo, pré-verificação e avaliação dos datasets pelos pares, ferramentas de citação de dados, certificação e até mesmo em plug-ins para publicação automática de dados, como a exemplo do Global Biodiversity Information Facility (GBIF).
Voltando à questão central, quando sou indagada por pesquisadores sobre para onde os dados devem ir, não os deixo sem resposta, mesmo que ainda possa parecer-lhes inicialmente retórica e não o aconselhamento pontual esperado. Para a decepção de muitos a resposta nunca é tão simples e direta, pois seria irresponsável sugerir nomes de repositórios sem levar em conta uma série de variáveis como: a disciplina e a especialidade em que o pesquisador atua, os tipos de dados que suas pesquisas produzem, bem como questões legais que incluem direitos de acesso, reuso, e custódia dos dados. No entanto, em um ponto tenho sido enfática: optem por repositórios disciplinares.
Sugiro sempre que os pesquisadores busquem em sua comunidade as opções de repositórios existentes, tanto junto aos seus pares, quanto utilizando os recursos do registro de repositórios Re3data.org. Juntamente com a lista de repositórios de dados por disciplina os pesquisadores, neste registro, é possível identificar selos/ícones que podem auxiliar decisões mais informadas sobre as opções de repositórios, uma vez que representam sua conformidade com alguns requisitos importantes, tais como: 1) existência de informações adicionais sobre recursos e serviços providos pelo repositório; 2) especificação do tipo acesso aos dados (aberto, restrito ou fechado); 3) detalhamento sobre os termos de licença e de uso dos dados; 4) uso de identificadores de modo a garantir que os dados sejam persistentes, unicamente identificados e citáveis, e 5) certificação ou uso de padrões pelo repositório.
Minha defesa pelos repositórios disciplinares coaduna com os argumentos expostos por Lyle (2017)[2]:
Embora os repositórios institucionais e gerais atendam a uma ampla gama de usuários e dados, com mecanismos de metadados, acesso e suporte ao usuário direcionados a um público amplo e heterogêneo, um repositório disciplinar pode fornecer dados, serviços e ferramentas especializados utilizados e favorecidos por uma comunidade científica específica. Isso inclui especialização no assunto, metadados personalizados, conhecimento de divulgação, curadoria e preservação personalizadas, ferramentas especializadas e uma coleção concentrada de dados.
Além das vantagens apresentadas, outro ponto central é o fato de que os pesquisadores buscam impacto e visibilidade entre os seus pares, pessoas que dialogam sobre questões semelhantes, independente da filiação institucional a que pertencem, do mesmo modo em que os reutilizadores potenciais teriam mais recursos para julgar a qualidade de coleções de dados nessas plataformas mais específicas.
Ademais, ilhas de dados institucionais interessariam mais às questões administrativas da custódia e gerenciamento dos dados do que aos cientistas propriamente. Porém, uma via não inviabiliza outra, uma vez que, caso desejável, as coleções de dados disponíveis em repositórios disciplinares poderiam ser devidamente rastreadas e recuperadas por agências de fomento e instituições para fins de relatórios administrativos, quando devidamente identificados por identificadores persistentes como o DOI, o ORCID e o FunderID, GrantIDs, entre outros. Assim, as instituições de pesquisa teriam como acompanhar as produções de seus afiliados e dos pesquisadores que recebem recursos, sem que esse gerenciamento fosse em detrimento da melhor garantia de circulação, alcance e do potencial de reusabilidade desses dados. Essa também seria uma alternativa para garantir a interdisciplinaridade, sem que as coleções de dados perdessem suas especificidades.
Ao passo que o Brasil começa a alinhar-se ao movimento de dados científicos abertos, é importante que aprendamos com a experiência alheia e que pensemos mais estrategicamente. Ainda não contamos com uma infraestrutura nacional que comporte os dados que estão sendo exigidos dos cientistas, muito menos considerando a tendência de expansão dessas exigências. Atualmente existem apenas oito repositórios com participação e ou sob coordenação de instituições nacionais, alguns dos quais não dedicados exclusivamente aos dados de pesquisa e ainda em caráter experimental. O ideal seria que já tivéssemos, mas este não sendo o cenário real, tampouco próximo, um paliativo que nos ajudaria a não repetir o tortuoso exemplo dos EUA, seria que essas regulamentações fossem acompanhadas de instruções e treinamentos para que os pesquisadores façam escolhas mais informadas sobre repositórios minimamente confiáveis e qualificáveis, em suas disciplinas, para o registro dos dados provenientes de suas pesquisas.
Assim como temos um sistema de qualificação nacional para periódicos, eventos e livros científicos, seria imprescindível pensarmos na seara dos colégios e áreas da CAPES e do CNPq quais repositórios, já existentes, nacionais e internacionais, atenderiam aos critérios mínimos de qualidade das disciplinas. Essa qualificação também proveria elementos para um sistema de recompensa científica àqueles que compartilham dados, estimulando essa prática entre os pesquisadores. Os dados depositados em repositórios poderiam ser relacionados às produções científicas formais da pesquisa (artigos de periódicos, artigos de eventos, livros, apresentações, entre outros), ou até mesmo vinculado aos dados de registros de projetos registrados nos currículos dos pesquisadores, algo que vem sendo estimulado em alguns países, e que poderia ser facilmente adotado no Brasil dada à estrutura pré-existente da Plataforma Lattes. Assim, o provimento de dados atenderia não só às exigências impostas aos pesquisadores, mas compensaria aqueles que o fazem corretamente e ampliaria o potencial de reuso dos dados gerados em pesquisas financiadas com recursos públicos.
[1] Os slides da apresentação podem ser obtidos por meio do link: https://www.slideshare.net/asist_org/rdap13-curty-what-have-scientists-planned-for-data-sharing-and-reuse-a-content-analysis-of-nsf-awardees-data-management-plans
[2] Lyle, J. (2017). Makingthe Case for Disciplinary Data Repositories. In Lisa Johnston (Editor), CuratingResearch Data, Volume Two: A HandbookofCurrentPractice (162-164). Chicago: AssociationofCollege and ResearchLibraries.
Para além do projeto para o qual determinado dado é criado, este, e qualquer dado de pesquisa, obedece a um ciclo de vida. Após o fim do financiamento das pesquisas, seus pesquisadores devem continuar trabalhando em cima dos seus dados produzidos, a fim de que eles sejam reutilizados após análises, citações e atualizações destes (por isso que os dados e as coleções de dados científicos possuem um tempo de vida maior que seus projetos de pesquisa que os criaram). É assim que existe a possibilidade de reutilização dos dados de pesquisa que vai alimentar o que se chama “ciclo de vida de um dado de pesquisa”.
Apesar de entendermos que existem vários modelos de ciclo de vida de dados de pesquisa, cada qual com seu conceito de estrutura, o intuito dessa postagem é trazermos as mais conhecidas etapas da vida de um dado de pesquisa, que você confere a seguir.
Criação dos dados: aqui, é a primeira parte, onde se tem a concepção da pesquisa e um plano de gestão de dados. A partir disso se localiza e coleta os dados de pesquisa.
Tratamento dos dados: é onde se arruma os dados para a utilização na pesquisa, tal como fazer transcrições, digitalizações ou traduções, além de descrições e oferecer um sistema de estocagem desses dados.
Análise dos dados: aqui o pesquisador fica imerso no conteúdo dos seus dados com a finalidade de interpretá-los e produzir resultados a partir deles. Os dados são preparados para serem incluídos na publicação e para serem preservados após isso.
Preservação dos dados: após a sua utilização no corpo da pesquisa, os dados devem ser migrados para um formato mais adequado, em geral open source. Também se faz um backup e armazenamento deles, além de promover uma documentação, criação de metadados e, por fim, o seu arquivamento.
Acesso aos dados: é a distribuição e compartilhamento desses dados, bem como o controle do seu acesso e seus aspectos jurídicos. Aqui vale promover esses dados de pesquisa.
Reutilização dos dados: os dados são acompanhados e reutilizados, permanecendo vivos e aptos a auxiliarem em uma nova pesquisa; também analisa-se os resultados obtidos com eles, sendo estes frutos que geram aprendizado.
A primeira etapa do projeto Rede de Dados de Pesquisa Brasileira (RDP Brasil) foi concluído. Trata-se do primeiro relatório do projeto, um documento de 19 páginas que objetivou tanto identificar repositórios brasileiros que disponibilizam dados de pesquisa, quanto levantar características relacionadas à abrangência, à temática, aos padrões de metadados e aos softwares utilizados.
O Re3data, que já foi tema de postagem aqui neste site, foi utilizado como fonte principal de informação. Foram identificados 15 repositórios, sendo quatro de abrangência internacional (envolvendo várias instituições), sete de abrangência nacional e cinco de multi-institucional. As políticas dos repositórios foram encontradas em apenas oito dos 15 analisados. Conclui-se não somente que iniciativas institucionais de compartilhamento de dados abertos de pesquisa no Brasil ainda são poucas, mas também que esforços públicos são necessários para consolidar tais iniciativas.
Ficou interessado em saber os detalhes? Clique aqui e acesse o relatório na íntegra.
A Data Documentation Iniciative (Iniciativa de Documentação de Dados, em livre tradução), de sigla DDI, é um padrão internacional para descrever os dados produzidos por pesquisas e outros métodos de observação nas ciências sociais, comportamentais, econômicas e da saúde. A DDI é um padrão gratuito que pode documentar e gerenciar diferentes estágios no ciclo de vida dos dados de pesquisa, como conceituação, coleta, processamento, distribuição, descoberta e arquivamento. A documentação dos dados com o DDI facilita o entendimento, a interpretação e o uso – por pessoas, sistemas de software e redes de computadores.
A DDI Alliance é composta por membros e organizações membros associadas e é governada por um Conselho Executivo (que gerencia as operações da aliança), um Conselho Científico (que realiza pesquisas e testes) e um Comitê Técnico (cujo objetivo é modelar, processar, manter e atualizar as especificações da DDI). Além disso, existem grupos de trabalho que se concentram no desenvolvimento de áreas específicas da DDI. Clique aqui e confira o estatuto da DDI.
Segundo a carta da Aliança DDI (disponível clicando aqui), são estes os seus objetivos:
(a) Supervisionar o desenvolvimento contínuo de padrões DDI e produtos semânticos, incluindo revisões, correções e novos lançamentos.
(b) Promover a adoção de padrões de metadados e produtos semânticos da DDI por meio de partes interessadas, tais como produtores de dados, distribuidores de dados, bibliotecas de dados, arquivos de dados, usuários de dados, pesquisadores e desenvolvedores e fornecedores de software.
c) Apoiar o desenvolvimento de programas de treinamento que incentivem o uso desses padrões para todos os níveis de habilidade dos adotantes em potencial.
d) Garantir, na medida do possível, a compatibilidade das normas DDI com as padrões de metadados em outros campos.
(e) Equilibrar os interesses de uma comunidade diversificada de partes interessadas através de um processo que é aberto, transparente, orientado por consenso e aberto a recursos.
Alguns meses atrás, este site divulgou o 4º Plano de Ação Nacional e a votação dos seus desafios. A Rede Nacional de Ensino e Pesquisa (RNP), recentemente, iniciou sua participação neste plano com o compromisso de implantar uma infraestrutura federada piloto de repositórios de dados de pesquisa até junho de 2020. O Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT) e o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) auxiliarão a RNP no processo de execução desse que será um marco para pensarmos em dados de pesquisa abertos.
Para mais informações, clique aqui e confira matéria do site da RNP tratando do assunto mais detalhadamente.
Hoje, até as 16h, e na próxima quarta-feira, dia 29/08/2018 (das 9h às 17h), ocorre o I Seminário Gestão de Dados de Pesquisa Unifesp e UFABC, um encontro que se propõe a debater em comunidade os novos rumos da gestão dos dados de pesquisa para se criar uma cultura institucional de curadoria dos dados de pesquisa, além de discutir o valor do dado coletado e não armazenado adequadamente e o reuso destes dados
O evento ocorre na cidade de São Paulo/SP, no Anfiteatro da Reitoria da Unifesp (Universidade Federal de São Paulo), sito à Rua Sena Madureira 1500/térreo. A organização fica por conta da Coordenadoria da Rede de Bibliotecas, da Pró-Reitoria de Pós-Graduação e Pesquisa da Universidade Federal de São Paulo (Unifesp) e do Sistema de Bibliotecas da Universidade Federal do ABC (UFABC).
Clique aqui para conferir a programação completa.
Também é possível acompanhar a transmissão online, clicando nos links de transmissão ao vivo aqui, no final da página.
Este site vem enfatizando constantemente a importância que os dados exercem em uma pesquisa. Ser capaz de compartilhar esses dados de forma eficaz é, portanto, extremamente importante. O DataCite é uma rede global sem fins lucrativos empenhada em apoiar a partilha de dados através da parceria entre membros e do desenvolvimento de ferramentas e serviços que aceleram o compartilhamento, utilização e reutilização de dados. Portanto, o DataCite, assim como nós, está envolto na ideia da OpenScience.
O DataCite trabalha com parcerias e está sempre em busca de novos membros com o intuito de ampliar seu leque de opções no âmbito do compartilhamento de dados abertos para pesquisa. Organizações que são membros se envolvem em uma rede de ponta de especialistas em pesquisa de dados, devendo demonstrar um nível elevado de comprometimento com dados abertos e pesquisa aberta, desempenhando um papel fundamental no avanço da missão de compartilhamento de dados do DataCite por meio do seu suporte financeiro, além de poder moldar o futuro do DataCite (e pesquisa de dados em geral) servindo no Conselho Executivo.
O DataCite oferece serviços que suportam a pesquisa avançada e a descoberta de conteúdo de pesquisa, como DataPapers (clique aqui e leia mais sobre o que é um DataPaper). Também promove a citação e defesa de dados através de construções de comunidades e materiais de comunicação e divulgação. Por fim, a importância do DataCite se dá também pela tentativa meritória de formar uma comunidade, e é por meio dela, da comunicação e defesa dos direitos, que fornece liderança e recursos para o ecossistema de comunicação acadêmica e para a comunidade de pesquisa, organizando treinamentos personalizados para os seus membros, tornando os serviços visíveis afim de aumentar o impacto do conteúdo da pesquisa na comunidade como um todo.
Reunir informações sobre um determinado assunto, afim de facilitar a busca por dados de pesquisa específicos, abrangendo-os numa publicação para auxiliar o pesquisador. O DataPaper é, via de regra, uma publicação que apresenta, explica e disponibiliza um banco de dados, preparando, organizando e descrevendo-o. Um DataPaper é um documento de metadados pesquisável, que descreve um determinado conjunto de dados ou um grupo de conjuntos de dados, publicado na forma de um artigo, revisado por especialistas, em um periódico acadêmico. Ao contrário de um artigo de pesquisa convencional, o objetivo principal de um documento de dados é descrever os dados e as circunstâncias de sua coleta, em vez de relatar hipóteses e conclusões.
A criação de metadados claros e informativos é um passo essencial para um maior aproveitamento desses dados. É trabalhoso fazê-lo, por isso muitas vezes alguns conjuntos de dados são publicados com metadados mal documentados ou, ainda pior, sem metadados. Nesse contexto, o DataPaper ajuda a superar as barreiras à criação de metadados, fornecendo um reconhecimento claro de todos os envolvidos na coleta, gerenciamento, curadoria e publicação de dados.
Otimizar o uso dos recursos disponíveis é uma vantagem, além de proporcionar que o pesquisador possa começar seu trabalho a partir de pesquisas de outros profissionais, fazendo-se valer dos dados acumulados para iniciar do ponto em que se parou de pesquisar – o que significa economia de tempo, dinheiro e energia. Os DataPapers estão em sintonia com o movimento OpenScience, acreditando ser de imenso valor disponibilizar os dados para o público.
Recentemente, fizemos aqui no site uma postagem referente ao re3data, um catálogo internacional de repositórios de dados e a melhor fonte atualmente para achar repositórios. À época, o Brasil contava com sete repositórios cadastrados na plataforma. Agora, essa lista é engrossada pelo CEDAP/UFRGS.
O CEDAP da Universidade Federal do Rio Grande do Sul é o Centro de Documentação e Acervo Digital da Pesquisa da universidade, um órgão auxiliar da Faculdade de Biblioteconomia e Comunicação (FABICO). Suas atribuições são dar suporte às pesquisas científicas, tecnológicas, artísticas e culturais realizadas na Universidade, visando à gestão, preservação e uso científico e cultural de seus ativos digitais de pesquisa, natos ou decorrentes da digitalização – assim tendo papel importante na consolidação do uso e reuso dos dados de pesquisa.
No nosso post anterior vimos como funcionam as certificações para repositórios de dados. Existem três níveis de certificação e, no nível básico, o Data Seal of Aproval (DSA) e o World Data System (WDS) eram as ferramentas utilizadas. Através da Data Archiving and Networked Services (DANS), ocorreu no fim de 2017 uma fusão entre o DSA e WDS, formando o CoreTrustSeal: uma certificação de repositório de dados que substitui estes dois outros selos. O CoreTrustSeal é uma organização sem fins lucrativos de base comunitária que promove infraestruturas de dados sustentáveis e confiáveis. É regido por um Conselho de Normas e Certificação composto por membros eleitos representando a Assembleia de Revisores e membros nomeados representando os maiores repositórios de dados.
O CoreTrustSeal está desenvolvendo um modelo de negócios sustentável e, como um passo inicial, começou a cobrar uma taxa modesta para cobrir os custos administrativos em janeiro de 2018. A certificação CoreTrustSeal se esforçará para fornecer certificação de nível central para outras entidades de pesquisa, como serviços de dados e software, e é concebida como o nível inicial em uma estrutura global para certificação de repositório, que também inclui níveis estendidos e formais. É baseada no catálogo e nos procedimentos de Requisitos de Repositórios de Dados Confiáveis do Núcleo DSA-WDS . Esse catálogo universal de requisitos reflete as características centrais de repositórios de dados confiáveis e é o resultado de um esforço cooperativo entre a DSA e a WDS, sob a égide da Research Data Alliance (RDA), para mesclar suas certificações de repositórios de dados.
Novos aplicativos DSA serão canalizados por meio do CoreTrustSeal. Espera-se também que os repositórios previamente certificados pela DSA passem para o CoreTrustSeal à medida que renovam sua certificação. Da mesma forma, o WDS agora exige que seus membros regulares solicitem ou renovem a associação para obter a certificação do Repositório de dados do CoreTrustSeal. Um conselho ad hoc estabelecido pela WDS e pela DSA está assumindo suas responsabilidades até que a diretoria fundadora seja eleita. Um Comitê Consultivo também será designado para auxiliar o Conselho do CoreTrustSeal a cumprir sua missão e fornecer um vínculo com as partes interessadas do CoreTrustSeal e com a comunidade de dados mais ampla, incluindo outros padrões de certificação.
Acessar, usar, compartilhar e reutilizar recursos de informações digitais (incluindo dados) sempre representará desafios. Como saber se um repositório é confiável? O que você faria se os repositórios aos quais você confia seu “capital digital” o deixassem para baixo? O gerenciamento sustentável de recursos de informações digitais requer suporte para o trabalho em políticas bem definidas e planos de gerenciamento de dados que incluam todos os processos dentro de seu ciclo de vida específico, bem como em padrões em TDR (Trusted Digital Repositories, ou “Repositórios Digitais Confiáveis”, em tradução livre).
Existe uma infinidade de modelos, padrões e melhores práticas abordando as diferentes facetas para o acesso de longo prazo dos recursos de informações digitais. A preservação destes últimos a longo prazo não se limita ao armazenamento e backup; em vez disso, envolve estratégias multifacetadas destinadas a fornecer um ambiente confiável onde os recursos de informação podem evoluir junto com as mudanças na tecnologia, hardware e software.
Essas estratégias multifacetadas antecipam e atendem às necessidades de compartilhamento, publicação, preservação e acesso de longo prazo dos recursos de informações digitais, garantindo que elas sejam utilizáveis para o benefício de outros, tanto no momento do depósito como no futuro.
O European Framework for Audit and Certification (numa tradução livre, Marco Europeu para Auditoria e Certificação) garante que repositórios digitais possam receber diferentes certificados, permitindo que os repositórios mostrem um dos três símbolos (a serem aprovados em Certificação Básica, Certificação Estendida e Certificação Formal) em suas páginas da web e outras documentações, além de qualquer outro Selo de Aprovação de Dados (DSA), selo NESTOR, ou marcas de certificação ISO 16363.
O primeiro nível (Certificação Básica) requer alguns dias de esforço dos repositórios. O DSA e o WDS são ferramentas leves que podem ser facilmente usados para a autoavaliação da comunidade. Os dois últimos níveis (Extended e Formal Certification) apresentam padrões de auditoria para repositórios digitais confiáveis e exigem vários meses para coletar informações muito mais detalhadas do que a DSA, por exemplo.
Os repositórios digitais que atingiram padrão de estatuto do TDR têm uma missão explícita de preservar recursos de informação digital (incluindo dados) a longo prazo. Também se trata de garantir que esses recursos sejam utilizáveis e reutilizáveis para o benefício de outros, tanto no momento do depósito como no futuro. São os atributos e responsabilidades de um repositório neste nível.
Os dados de pesquisa são cada vez mais reconhecidos como uma saída importante da pesquisa acadêmica, no entanto, ainda não existem métricas de dados de pesquisa padronizadas ou abrangentes, como existem nos artigos. Enquanto os padrões de citações de dados estão sendo construídos e ganhando a adoção pelo usuário, ainda não há métricas de uso (visualizações, downloads) de dados. Além disso, as citações de dados ainda não são contadas e agregadas em métricas claras, como é feito para artigos.
Sobre essa temática, entre os dias 28 e 30 de novembro de 2018, a cidade de Niterói, no Rio de Janeiro, receberá a primeira edição do LATmetrics – Altmetria e Ciência Aberta na América Latina. O evento internacional será realizado no Núcleo de Biomassa da Universidade Federal Fluminense (UFF) e visa promover o debate sobre o uso de métricas alternativas para a circulação da ciência e práticas científicas abertas no território latino-americano.
O I LATmetrics surge em um momento de efervescência tanto para a comunicação científica quanto para a geografia da ciência. Mídias sociais e outros espaços digitais têm sido cada vez mais usados por pesquisadores e instituições para o compartilhamento de suas pesquisas com a sociedade, mudando a forma como medimos o impacto social da produção acadêmica. Novas oportunidades e uma série de desafios se impõem aos países periféricos, visto que a cobertura e a qualidade dos dados sobre métricas alternativas não costumam ser compatíveis com as dinâmicas da comunicação científica desenvolvidas nesta região.
Diante desse panorama instigante, pesquisadores de diversas áreas do conhecimento se reunirão pela primeira vez para compartilhar os avanços da pesquisa sobre altmetria e da ciência aberta no contexto latino-americano. Voltado para pesquisadores, avaliadores da ciência, agentes de decisões de políticas públicas, bibliotecários, instituições de pesquisa, estudantes e demais interessados, o I LATmetrics discutirá temas relacionados à circulação científica nos espaços sociais digitais, à cobertura de dados e ao impacto da ciência para a sociedade.
Entre os eixos temáticos, pretende-se discutir questões relacionadas à:
– Cobertura de dados na América Latina
– Ciência aberta na América Latina
– Métricas alternativas (altmetrics) na América Latina
– Circulação e divulgação científica
– Ciência e sociedade – interações públicas com a ciência
– Políticas públicas e políticas científicas
– Estudos bibliométricos e avaliação da produção científica
– Aquisição de financiamento
– Construção de colaborações de pesquisa internacionais
– Avaliação da produção científica em línguas não-inglesas
– Artes e humanidades: avaliação dos resultados da pesquisa não
tradicional
Para além dos debates, o evento será pioneiro na consolidação de uma comissão latino-americana de especialistas em altmetria. A partir dessa iniciativa, pretende-se construir ferramentas e estratégias para viabilizar a aplicação dessa corrente de mensuração na avaliação de pesquisas na região, trazendo resultados efetivos e atualizados sobre os benefícios da pesquisa científica para suas nações.
Ficou interessado? Interessados em participar dos grupos de trabalho e/ou apresentação de painéis e pôsteres deverão enviar um resumo expandido da pesquisa (título, 250-500 palavras e até cinco palavras-chave) até o dia 20/07. Clique aqui para acessar o formulário para submissão de propostas.
Quer saber mais? Acesse o site do MakeDataCount, projeto que visa determinar quais métricas de dados oferecem mais valor para a comunidade científica.
Toulouse, na França, sediará a 8ª edição do EuroScience Open Forum (ESOF), que ocorrerá entre os dias 9 e 14 de julho de 2018. Trata-se do maior encontro interdisciplinar de ciências da Europa, e dedica-se à pesquisa científica e inovação, oferecendo uma estrutura única para interação e debate para cientistas, decisores políticos, empresários e o público em geral.
Criado em 2004 pela EuroScience, este fórum europeu bienal reúne mais de 4000 investigadores, educadores, agentes empresariais, decisores políticos e jornalistas de todo o mundo para debater avanços na ciência. Mais de 40% dos participantes são estudantes e jovens pesquisadores. São aproximadamente 4000 delegados de mais de 80 países envolvidas no processo, além de cerca de 400 jornalistas e comunicadores da ciência, 150 conferências, workshops e sessões científicas e mais de 200 eventos abertos ao público em geral, que envolvem mais de 35000 participantes.
Participar do ESOF é uma oportunidade única para obter maior conhecimento sobre os desafios e avanços na pesquisa, inovação e sua relação com a sociedade; criar vínculos, trocar e debater com líderes da comunidade científica mundial em um contexto interdisciplinar; comunicar as últimas notícias sobre pesquisa científica e inovação para um público internacional; desenvolver uma rede tendo em vista a construção de uma carreira de investigação.
A participação no ESOF envolve alguns custos, que podem ser verificados aqui, na página de registro para participação no Fórum.
Acesse aqui a programação do evento.
Algo que certamente ajuda a dar maior dinamismo ao pesquisador é encontrar um repositório de dados compatível com o assunto da sua pesquisa. O site re3data.org é um catálogo internacional de repositórios de dados e a melhor fonte atualmente para achar repositórios. Essa ferramenta permite que se encontre os repositórios mais adequados para a especificidade que a pesquisa exige e oferece informações detalhadas de mais de 2.000 repositórios de dados de pesquisa nacionais e internacionais. Nele, metadados são coletados de repositórios especializados no armazenamento de dados de pesquisa. O Brasil tem sete repositórios mapeados até o momento.
Seu nome completo é Registry of Research Data Repositories e teve início em maio de 2013, utilizando-se da ideia de Ciência Aberta, de acordo com o Creative Commons, cobrindo todas as áreas do conhecimento acadêmico. Um repositório é indexado quando os requisitos mínimos para inclusão no re3data.org são atendidos: o repositório deve ser executado por uma entidade legal, como uma instituição sustentável (por exemplo, biblioteca, universidade), e ter condições de acesso de estado aos dados e repositório, bem como dos termos de uso. Além disso, é necessária uma interface gráfica do usuário em inglês (GUI).
O re3data.org é um projeto conjunto da Escola de Biblioteconomia e Ciência da Informação de Berlim e da Biblioteca do Instituto de Tecnologia de Karlsruhe (KIT). O projeto é financiado pela Fundação Alemã de Pesquisa (DFG).
Com dificuldades para utilizar a ferramenta? Clique aqui e acesse um tutorial.
Através do Edital 03/2018 a Coordenação do Programa de Pós-Graduação em Biblioteconomia, do Centro de Ciências Humanas e Sociais da Universidade Federal do Estado do Rio de Janeiro (UNIRIO), tornou pública a abertura de inscrições para o processo seletivo discente do Curso de Mestrado Profissional em Biblioteconomia, com a temática de Gestão de Dados de Pesquisa. São ofertadas oito vagas. As inscrições iniciarão no dia 15 de agosto de 2018, terminando em 14 de setembro do mesmo ano, e deverão ser feitas presencialmente no Protocolo do Centro de Ciências Humanas e Sociais (CCH), localizado à Av. Pasteur, 458, Praia Vermelha (Rio de Janeiro-RJ), das 9h às 12h e das 15h às 18h ou então via Sedex conforme informações contidas no edital.
O processo consiste em quatro etapas: a) homologação e exame do pré-projeto, b) prova escrita de conhecimentos específicos, c) prova oral e d) prova de compreensão de texto em língua inglesa.
Para maiores informações acesse o edital clicando aqui.
Acesse também: www.unirio.br e www.unirio.br/ppgb/selecao-2016.
Fundamentais para o andamento de uma pesquisa acadêmica, os dados de pesquisa são os registros factuais usados como fonte primária para a realização desta. É imprescindível que o pesquisador os obtenha e utilize, pois são eles que dão credibilidade ao trabalho, sendo vistos como necessários para validar os resultados da pesquisa científica. Os dados de uma pesquisa são, portanto, observações documentadas e podem ser auferidos pela percepção através dos sentidos ou pela execução de um processo de medição.
São muitas as possibilidades de formatos de um dado de pesquisa, além da forma como eles podem ser obtidos. Documentos, planilhas, cadernos de laboratório, diários de campo, questionários respondidos, transcrições de entrevistas, slides, amostras, filmes, fotografias, scripts, softwares ou arquivos de log são exemplos do que podem ser os dados de pesquisa. Estes podem ser alcançados, também, a partir de algumas alternativas, tais quais a observação e a simulação, ou então através de experimentos ou ainda procedimentos computacionais.
Pode-se dizer que os dados de pesquisa são o alicerce do conhecimento científico, sem o qual a pesquisa ficaria desacreditada. Logo, são relevantes também espaços que sirvam como banco de dados de pesquisa – repositórios de dados – disponíveis, em especial, para os pesquisadores (mas também para o público em geral). Isso permite que novos avanços no conhecimento científico e tecnológico venham com mais naturalidade, visto que a descrição dos métodos utilizados nas pesquisas sempre foi um elemento crucial no processo científico.
Dado o crescente número do volume de dados de pesquisa, a sua preservação e gestão digital se faz importante e requer a consolidação de políticas globais, governamentais e institucionais que deem sustentação e estímulo a essa prática, a fim de guarnecer garantias de acesso íntegro ao conjunto de dados que embasam as pesquisas científicas.
PARA SABER MAIS:
UNIVERSITY OF CAMBRIDGE. Research Data Management Guide. Disponível em: < https://www.data.cam.ac.uk/data-management-guide/organising-your-data#Naming > Em inglês; Acesso em 13 de junho de 2018.
FADESP. Plano de Gestão de Dados. Disponível em: < http://www.fapesp.br/gestaodedados >Acesso em 13 de junho de 2018.
DUDZIAK, Elisabeth. Dados de Pesquisa agora devem ser armazenados e citados. 2016. Disponível em: <http://www.sibi.usp.br/?p=6189> Acesso em: 13 de junho de 2018.