+ All Categories
Home > Documents > Contexte de la production et de l’évaluation scientifique

Contexte de la production et de l’évaluation scientifique

Date post: 31-Jan-2016
Category:
Upload: gella
View: 31 times
Download: 0 times
Share this document with a friend
Description:
Contexte de la production et de l’évaluation scientifique. Gabriel Gallezot 2012. Plan. Usage de l’IST par les chercheurs La communication Scientifique L’évaluation scientifique … appropriation « du numérique » et indicateurs émergents. Bases Bibliographiques. Banques de données. - PowerPoint PPT Presentation
Popular Tags:
64
Contexte de la production et de l’évaluation scientifique Gabriel Gallezot 2012
Transcript
Page 1: Contexte de la production  et de l’évaluation scientifique

Contexte de la production et de l’évaluation scientifique

Gabriel Gallezot

2012

Page 2: Contexte de la production  et de l’évaluation scientifique

Plan

• Usage de l’IST par les chercheurs• La communication Scientifique• L’évaluation scientifique• … appropriation « du numérique » et

indicateurs émergents

Page 3: Contexte de la production  et de l’évaluation scientifique

Types de documents

Formats de documents

Modalités d’accès aux documents

Usage de l’information

Rechercher: IR/épistémè

Bases Bibliographiques

Banques de données

Revues, ouvrages

Colloques

Site web, page perso, blog

Liste de discussion

Editeurs, agrégateurs

Archives Ouvertes

Bibliothèques

Les ressources

Page 4: Contexte de la production  et de l’évaluation scientifique

Communication Scientifique(schéma dia suivante)

• un processus au cœur de la recherche• le chemin "traditionnel" qu'emprunte l'IST• Montre les types de doc et les statuts des doc

Schéma bouleversé par• l’accès réseaux• prod. numérique• les entrepôts numériques

--> en terme rapidité et spectre documentaire

Page 5: Contexte de la production  et de l’évaluation scientifique

Communication scientifique modèle 70’

Source : Julie M. HurdJASIST 51(14), 2000 Lien vers 2020

Page 6: Contexte de la production  et de l’évaluation scientifique

Ex. « Code documentaire » pour l’évaluation

ACL : Articles dans des revues internationales ou nationales avec comité de lecture répertoriés dans les bases de données internationales

ACLN : Articles dans des revues avec comité de lecture non répertoriés dans des bases de données internationales.

ASCL : Articles dans des revues sans comité de lecture,

INV : Conférences invité.

ACT : Communications avec actes dans un congrès international ou national

COM : Communications sans actes dans un congrès international ou national

AFF : Communications par affiche dans un congrès international ou national

OS : Ouvrages scientifiques (ou chapitres de ces ouvrages)

OV : Ouvrages de vulgarisation (ou chapitres de ces ouvrages)

DO : Directions d’ouvrages

AP : Autres publications

TH : Thèses soutenues

Valorisation et brevets : contrats de recherche, les partenariats industriels,..

Page 7: Contexte de la production  et de l’évaluation scientifique

Cycle de l'édition

Rapport GFII sur le libre accès, janvier 2009

Page 8: Contexte de la production  et de l’évaluation scientifique

Cycle de l’information

(usage de l’information et production de résultats)

Cycle de l'édition

(publication des résultats)

Contexte de la recherche

Communication scientifique

(diffusion des résultats)

Acteurs :Pairs

Editeursinstitutions

La question de l’évaluation

Page 9: Contexte de la production  et de l’évaluation scientifique

La question de l'évaluation

Page 10: Contexte de la production  et de l’évaluation scientifique

Evaluation pour la publication… Evaluation qualitative : a priori, le peer reviewing, …

•Auto-évaluation

•Collègues de labo (évaluation)

•Direction de N° (guest éditor) ou d’ouvrage (sélection/évaluation)

•Comité de rédaction (sélection)

•Comité scientifique (évaluation)

•Editeur (évaluation/correction)

•Lecteur (évaluation)

Page 11: Contexte de la production  et de l’évaluation scientifique

… Publication pour l’évaluation Evaluation quantitative : a posteriori, la bibliométrie

• À l’origine : Garfield et le Science Citation Index (SCI, 1961) de l’Institute for Scientific Information (ISI), puis JCR (1975)

• Des référentiels : Wos OST, ERIH, JQL, liste AeRES, Scopus, …des bases (JournalBase), des listes…

• Des mesures : Impact Factor, Classement de Shanghai, H index, Y index, G index, indicateurs OST, Leiden Facteurs

• Des évaluations : AeRES, CNU, Université, …

Et … d’autres formes d’évaluation et de mesures : enquête SHS/CNRS, faculty of 1000, Citeseer, Citebase, schoolar…voir les diapos suivantes

Page 12: Contexte de la production  et de l’évaluation scientifique

… Publication pour l’évaluation Evaluation quantitative : a posteriori, la bibliométrie

• À l’origine : Garfield et le Science Citation Index (SCI, 1961) de l’Institute for Scientific Information (ISI), puis JCR (1975)

• Des référentiels : Wos OST, ERIH, JQL, liste AeRES, Scopus, …des bases (JournalBase), des listes…

• Des mesures : Impact Factor, Classement de Shanghai, H index, Y index, G index, indicateurs OST, Leiden Facteurs

• Des évaluations : AeRES, CNU, Université, …

Et … d’autres formes d’évaluation et de mesures : enquête SHS/CNRS, faculty of 1000, Citeseer, Citebase, schoolar…voir les diapos suivantes

Page 13: Contexte de la production  et de l’évaluation scientifique

Source : Ph. Laredo, LATTS.doc N°0 2003

Page 14: Contexte de la production  et de l’évaluation scientifique

Pourquoi ? : > le pilotage (DGES, Univ, …) : orientation de la prod sc., répartition bugétaire, recrutement, financement, prime, modulation de service...

Comment ? : quels référentiels ? quels indicateurs ? Qui ? Quoi ? : les chercheurs, les établissements ,

les revues, les programmes, ... Par Qui ? : Ost, Aeres, Cnu, Univ...

Un modèle prégnant :

publication (article de revue) et valeur de cette publi. par la mesure des citations “reçues” par d’autres publications (bibliométrie)

Un modèle dominant (STM) et quasi monopole de l’analyse et du référentiel (Thomson-reuter)

Evaluer l’activité “recherche” ?

Page 15: Contexte de la production  et de l’évaluation scientifique

Quel(s) réfentiel(s) ?-> Examen des sources disponibles comme référentiel(s)

possible(s) pour l’évaluation ... WoS (Thomson-reuter), Scopus (Elsevier), Google Scholar, ... et après ???

http://wiki-urfist.unice.fr/wiki_urfist/index.php/Contexte_de_la_production_et_de_l%27%C3%A9valuation_Scientifique

• Bases payantes : Wos (SCI, SSCI,AHCI), Scopus• Bases « invisibles » : interne institution, programme, ...• Bases « ouvertes » : Pubmed, Common Chemistry, ...• Moteurs de recherche : Scholar, Scirus, Scitopia, ...• AO & co : ArXiv, CiteSeer, institionnelle, revues.org, Cairn,

Persée, HAL, Driver, Isidore, ...• Listes et références : Aeres, ERIH, JQL, ...F1000

JournalBase• Outils d’interfaçage / Mashup : Eigenfactor, Scimago,

SCEAS, Authoratory, Scival, Bibapp...• Web : site labo, perso, programme, ...• Web2.0 : Connotea, CiteUllike,Zotero, mendeley ...

Postegenomic, hypothèse, ...

Page 16: Contexte de la production  et de l’évaluation scientifique

Quelle(s) Mesure(s) ?...

“... pour l'essentiel, la quantification est utilisée comme indicateur de qualité »

« La meilleure façon de pousser les classements vers le haut, c'est de tuer les sciences humaines. »

“ Il est largement accepté qu'une grande lacune des classements, comme des différentes bases bibliométriques – tient à leur incapacité à traduire avec exactitude et de manière adaptée la manière dont les différentes disciplines produisent et diffusent les connaissances, et de plus en plus pour rendre compte des retombées au-delà du périmètre académique. »

Rapport Unesco 2009, Ellen Hazelkorn, RAPPORT

OCCASIONNEL No. 15

Exemples de mesures : http://www.universityrankings.ch/fr/

Extraits

Page 17: Contexte de la production  et de l’évaluation scientifique

… quelle(s) influences ? “... malgré leur durée de vie relativement courte, est qu’il existe déjà des

fortes preuves que les classements ont déjà un effet profond sur la prise de décisions et les comportements dans le monde de la recherche ce qui entraînera des conséquences pour la structure des systèmes et l’organisation des institutions. »

“ l’application forcée à l’enseignement supérieur de modalités de gouvernance, de gestion et de contrôle se revendiquant de l’industrie et du modèle R&D – où d’ailleurs elles sont loin d’avoir fait leurs preuves – s’avère totalement inadéquate pour favoriser la qualité du travail d’enseignement-recherche et assurer la prise en charge du rôle de l’université vis-à-vis de la société. »

“ la mise en concurrence des équipes de recherche et le scorage de leur activité n’apportent aucune ressource pour la qualité des savoirs produits et met gravement en difficulté des collectifs dont le travail est indispensable au développement des disciplines et au fonctionnement des universités. »

“ Il convient de changer radicalement la proportion de temps et d’énergie consacrée à produire et transmettre des savoirs par rapport à celle vouée à justifier et évaluer pour permettre aux enseignants-chercheurs et aux équipes de se recentrer sur leurs missions fondamentales »

Rapport Unesco 2009, Ellen Hazelkorn, RAPPORT OCCASIONNEL No. 15

Extrait

Motion 71e section CNUPour Les Aesr

Extrait

Page 18: Contexte de la production  et de l’évaluation scientifique

Les mesures

Page 19: Contexte de la production  et de l’évaluation scientifique

Système de classement IndicateursPondération

Classement Académique des Universités Mondiales – SJT« SHANGAI »(Cf dia suivante)

• Qualité de l’enseignement• Qualité des membres du corps professoral Nombre de Prix Nobel / Médailles Fields Nombre de chercheurs les plus cités (« HiCi ») • Production de la Recherche Nombre d’Articles dans « Nature/Science » Nombre d’Articles dans le « Citation Index »• Taille de l’Institution

10%20%20%20%20%10%

Classement Mondial des Universités de Times QS « THE- QS »

• Évaluation par les Pairs• Employabilité des Diplômés• Qualité de l’enseignement / rapport élèves-enseignants• Étudiants Internationaux• Personnel enseignant international• Qualité de la Recherche / Citations par Faculté

40%10%20%5%5%20%

Classement des Performances des Articles Scientifiques pour Universités de Recherche « Taiwan »

• Productivité de la Recherche Nombre d'Articles dans les 11 dernières années Nombre d'Articles dans l’année en cours.• Impact de la Recherche Nombre de Citations dans les 11 dernières années Nombre de Citations dans les 2 dernières années Nombre moyen de Citations dans les 11 dernières années• Excellence de la Recherche Classement HiCi des 2 dernières années Nombre d’articles HiCi dans les 10 dernières années Nombre d’Articles dans des Revues à fort facteur d’impact Nombre de disciplines dans lesquelles l’Université fait preuve d’Excellence

10%10%10%10%10%20%10%10%10%

Exemples d'indicateurs mondiaux (Etablissements)Une comparaison de ce que les différents classements mesurent

Rapport Unesco 2009, Ellen Hazelkorn,

RAPPORT OCCASIONNEL No. 15

Page 20: Contexte de la production  et de l’évaluation scientifique

« Shangai » - critères• La qualité de l'enseignement (10% de l'évaluation)

Le critère « Alumni » : ce critère prend en compte le nombre de prix Nobel (hors littérature et paix) et de médailles Fields reçues par les anciens élèves ayant validé un bachelor, un master ou un doctorat (les distinctions les plus récentes valant plus de points).

• La qualité de l'établissement (40% de l'évaluation)

Le critère « Award » : ce critère est lié au nombre de prix Nobel (toujours hors littérature et paix) et de médailles Fields obtenus cette fois-ci par les chercheurs (une fois de plus le poids des chercheurs du début du siècle est moins important que les chercheurs en poste).

Le critère « HiCi » : le deuxième élément utilisé pour mesurer la qualité de l'établissement est le nombre de chercheurs les plus cités dans leurs disciplines.

• Le volume de publications scientifiques (40% de l'évaluation)

Le critère « N&S » : ce critère classant prend en compte les articles publiés dans les revues scientifiques « Nature » et « Science »

Le critère « PUB » : il comptabilise les articles indexés dans le « Science Citation Index », et le « Arts & Humanities Citation Index ».

• La taille de l'établissement (10% de l'évaluation)Source :

Page 21: Contexte de la production  et de l’évaluation scientifique

Retour sur « Shanghai »

sensibiliser le monde universitaire à son positionnement international (dynamique)

200X : http://www.arwu.org/ • Calculé sur les données du WoS qui présentent

déjà de nombreux biais (notamment la langue, type de doc, qualité de la base, ...)

• Pb multiples liés à l’affiliation des chercheurs (institutions de rattachement, mixité des labos, articles en collaboration, émerite univ A<>B, …)

• Pb de nos univ dans la mondialisation: éparpillement , petites tailles, pluridisciplinaires, …

Page 22: Contexte de la production  et de l’évaluation scientifique

Classement Leidenhttp://www.leidenranking.com/

Ce classement propose 2 types d' indicateurs : Impact et collaboration

Impact :

Le score moyen de citation (MCS) . Le nombre moyen de citations des publications de l'université.

Le score moyen citation normalisée (MNCS) . Le nombre moyen de citations des publications d'une université, compte tenu des différences sur le terrain, année de publication, et le type de document. Une valeur MNCS de 2, par exemple, signifie que les publications d'une université ont été cités 2 fois supérieur à la moyenne mondiale.

Proportion des « top » publications 10% (PP top 10% ) . La proportion des publications d'une université qui, par rapport à d'autres publications similaires, appartiennent à la tranche supérieure de 10% les plus fréquemment cités. (indicateur le plus stable)

Page 23: Contexte de la production  et de l’évaluation scientifique

Classement Leiden (suite)http://www.leidenranking.com/

Collaboration

Proportion des publications de collaboration (PP collab ) . La proportion des publications d'une université qui ont été co-écrit avec un ou plusieurs autres organisations.

Proportion publications internationales de collaboration (PP int collab ) . La proportion des publications d'une université qui ont été co-écrit par deux ou plusieurs pays.

La distance moyenne collaboration géographique (MGCD) . La collaboration à distance géographique moyenne des publications d'une université

Proportion des publications à longue distance de collaboration (PP > 1000 km ) . La proportion des publications d'une université qui ont une distance géographique de la collaboration de plus de 1000 km.

Page 24: Contexte de la production  et de l’évaluation scientifique

OST(Observatoir des Sciences et techniques)

Incateurs pour la france[...]

G. Filiatreau

Page 25: Contexte de la production  et de l’évaluation scientifique

Les 8 Les 8 iindicateurs ndicateurs de lde l’OS’OSTT

• Part de publications scientifiques • Indice de spécialisation scientifique • Part de citations• Indice d’impact relatif • Indice d’impact espéré • Ratio de citations relatif • Indice d’activité par classe de citations• Part d’articles en co-publication

Ex. IPERU : Programme 150 de la LOLF « formations supérieurs et recherches universitaireIndicateurs « part mondiale de publications » et « indices d’impact à 2 ans »par discipline, pour les sciences de la matière et sciences de la nature et de la vie

Source :

Etablissements

Chiffre de 2008

Page 26: Contexte de la production  et de l’évaluation scientifique

Indicateurs utilisés pour évaluer la recherche Système de classement (pays)

Total des financements (somme d’argent) Slovaquie

Financements par université (somme d’argent) Autriche, Allemagne, Italie

Financements par université (nombre absolu) Italie

Projets de recherche financés par l’Union Européen (UE)

Italie

Nombre de publications Suède

Publications par chercheur Allemagne, Slovaquie, Suisse

Citations par université Royaume-Uni

Citations par publication Allemagne, Slovaquie, Suisse

Pourcentage d’articles cités dans les deux premières années suivant leur publication

Suède

Pourcentage d’articles classés dans les premier 5% des articles les plus cités (HiCi)

Suède

Nombre de brevets (nombre absolu) Allemagne

Brevets par université Allemagne

Rapport d’étudiants chercheurs de troisième cycle Royaume-Uni

Qualité de la recherche Allemagne, Royaume-Uni

Réputation de la recherche Autriche, Allemagne

Types d'indicateurs Nationaux pour l’évaluation de la recherche

Rapport Unesco 2009, Ellen Hazelkorn,

RAPPORT OCCASIONNEL No. 15

Extrait

Page 27: Contexte de la production  et de l’évaluation scientifique

Facteur d’impact

• ISI calcule le facteur d’impact d’une revue de la façon suivante:

Le nombre total de citations faites en 2004 d’articles publiés au cours des deux années précédentes (2002 & 2003) est divisé par le nombre total d’articles publiés au cours des deux années précédentes

Citations en 2004 d’éléments publiés en 2002 et 2003Nombre total d’articles publiés en 2002 et 2003

1630

523= 3.117

Source : ISI thomson

Revues

Page 28: Contexte de la production  et de l’évaluation scientifique

h index et

variantes

• H index : Jorge E. Hirsch (2005) www.pnas.org/cgi/doi/10.1073/pnas.0507655102. Relation entre un nombre total de publications et leurs citations > coïncidence approximative entre un nombre équivalent de publications et de citations.

Ex : h index = 10 => environ 10 publications citées au moins 10 fois

• G index : Egghe, Leo (2006) http://dx.doi.org/10.1007%2Fs11192-006-0144-7 : un g-index de 10 => 10 papiers dont la somme des citations est au moins de 100

• A- index, H-b index , scHolar index, …

• Démo avec POP ou ScholarIndex ou Tenurometer ou google citation http://insitu.lri.fr/~roussel/projects/scholarindex/ http://scholarometer.indiana.edu/

CHERCHEUR

Page 29: Contexte de la production  et de l’évaluation scientifique

ISIHighlyCited.com« …an expert gateway to the most highly

influential scientists and scholars worldwide » http://isihighlycited.com/

CHERCHEUR

« ISIHighlyCited.com highlights the top 250 preeminent individual researchers in each of 21 subject categories who have demonstrated great influence in their field as measured by citations to their work »

Page 30: Contexte de la production  et de l’évaluation scientifique

Exemple de H-index pour un auteur

Pouyssegur J* ( ISIHighlyCited pour l'UNS )

Scholarometer – Google scolar

WOK

Scopus

Page 31: Contexte de la production  et de l’évaluation scientifique

facteur y• tient compte de la distinction entre les deux

notions de « popularité » et de « prestige ». C’est le produit de « ISI IF and Weighted PageRank »

Page 32: Contexte de la production  et de l’évaluation scientifique

Retraction indexNouvel indicateur le « retraction index » : Fang, Ferric C., et Arturo

Casadevall. 2011. « Retracted Science and the Retraction Index ». Infection and Immunity 79(10): 3855-3859.

Correlation entreL'IF et le retractation index

Voir le blog http://retractionwatch.wordpress.com/sur les articles « retirés »

Page 33: Contexte de la production  et de l’évaluation scientifique

La fraude « annoncée » de plus en plus importe : Fang, Ferric C., R. Grant Steen, et Arturo Casadevall. 2012. « Misconduct accounts for the majority of retracted scientific publications ». Proceedings of the National Academy of Sciences.

Et Pierre Barthélémy, « passeurdesciences »http://passeurdesciences.blog.lemonde.fr/2012/10/03/la-fraude-scientifique-est-plus-repandue-recherche/

" l'augmentation des rétractions et des manquements à l'éthique peut résulter, au moins en partie, du système de la science au résultat, basé sur la logique économique de la prime au vainqueur, qui confère au premier des récompenses disproportionnées, sous la forme de subventions, de postes et de prix, à une période où le financement de la recherche se restreint ".

Voir : l'outil http://dejavu.vbi.vt.edu/dejavu/ pour les articles similaires.

Page 34: Contexte de la production  et de l’évaluation scientifique

Les instances d'évaluation

Page 35: Contexte de la production  et de l’évaluation scientifique

Êtes-vous « publiant » ? selon l’AERES (doc 2007)

http://wiki-urfist.unice.fr/wiki_urfist/images/7/7d/Criteres_Identification_Publiants.pdf L’activité d’une unité de recherche fait l’objet d’une appréciation qualitative,

fondée principalement sur l’évaluation par les pairs, complétée par un certain nombre d’indicateurs aussi objectifs que possible. A l’estimation globale de la qualité de la production scientifique et du rayonnement d’un laboratoire, s’ajoute la prise en considération de l’organisation et de la répartition des travaux entre ses membres. L’un des indicateurs est une estimation de la proportion des chercheurs et enseignants-chercheurs "publiants".

Peut-être de nouveaux critères ?, selon les recommandations de l’Academie des Sciences au MESR

Production Scientifique de rang A pour 4 ans Scu

Liste revues AeRES : http://www.aeres-evaluation.fr/Publications/Methodologie-de-l-evaluation/Listes-de-revues-SHS-sciences-humaines-et-sociales

Page 36: Contexte de la production  et de l’évaluation scientifique

Est considéré comme une production scientifique de rang A pour l’AeRES :

• une publication dans une revue internationale avec comité de lecture (ou une revue considérée comme de très bon niveau par la communauté dans certaines disciplines),

• un chapitre d'ouvrage ou un ouvrage de recherche reconnu internationalement (ou de portée nationale en SHS),

• pour le secteur STIC ou SHS, un article long dans un congrès international à comité de sélection considéré comme sélectif par la communauté,

• pour le secteur SHS, la constitution de bases de données accessibles ou de corpus de référence, les éditions critiques

• un brevet déposé à l'international.

Il est clair que la participation à des colloques est un indice de l'activité scientifique mais la très grande variabilité qualitative de l'évaluation des actes des colloques ne permet pas de les retenir comme élément pertinent d'appréciation.

Page 37: Contexte de la production  et de l’évaluation scientifique

Evaluation Labo par l’AERES(4 volets de la notation)

• Qualité scientifique et production (qualité et quantité des publis)

• Rayonnement et attractivité, intégration dans l'environnement (relations internationales, contrats nationaux, prix, ...)

• Stratégie, gouvernance et vie du laboratoire (implication dans l’univ, politique de recrutement, ...

• Appréciation du projet (analyse du « quadriennal »)

Page 38: Contexte de la production  et de l’évaluation scientifique

CNU

Voir site CP- CNU : http://www.cpcnu.fr/

qualification et… recommandation de chaque section : http://www.cpcnu.fr/sectionsCnu.htm

Page 39: Contexte de la production  et de l’évaluation scientifique

Les études et rapports sur d'évaluation

Page 40: Contexte de la production  et de l’évaluation scientifique

Principales Recommandations pourL’évaluation individuelle des chercheurs et des enseignants-chercheurs

en sciences exactes et expérimentales (Rapport Academie des Sciences du 8 juillet 2009 au MESR)

Pour une déontologie incontestable

1 -Assurer la qualité des évaluateurs à partir de pré-requis définis par l'AERES

2 -Imposer une déclaration obligatoire des conflits d'intérêt directs et indirects, signée par les évaluateurs, et remplacement au sein du comité si nécessaire

3 -Limiter la durée des mandats à trois ans avec rotation annuelle par tiers pour dissocier les lobbies

Évaluation de l’activité de rechercheÉvaluation de l’activité de recherche

4 -Réaffirmer la valeur primordiale de l'évaluation directe des travaux scientifiques à partir des publications originales et éventuellement d’auditions

Page 41: Contexte de la production  et de l’évaluation scientifique

...suite

5 -Encadrer la bibliométrie en s'assurant qu’elle soit utilisée de façon rigoureuse, en évitant tous les biais trop souvent négligés, en adaptant les indicateurs selon les disciplines, et en l’intégrant à l’évaluation qualitative. Encourager le développement d’une recherche critique de nouveaux indicateurs

6 -Donner la place qu'elle mérite à la recherche appliquée pour ceux qui s'y consacrent

7 -Prendre en considération les critères objectifs de notoriété scientifique nationale et internationale

Évaluation de l’activité d’enseignement

8 -Etablir une grille d'évaluation de l'enseignement en donnant une large place à l’appréciation des étudiants

9 -Intégrer des critères objectifs tels que le contenu et l’originalité de l’enseignement ou la production d’ouvrages pédagogiques

Évaluation des charges d’intérêt collectif

10 -Prendre en compte les charges d’intérêt collectif, plus particulièrement celles impliquant des responsabilités importantes

Page 42: Contexte de la production  et de l’évaluation scientifique

Autres mesures importantes

11 -Réduire le nombre des évaluations au strict nécessaire, en distinguant les évaluations approfondies (recrutements et autres étapes-clés de la carrière), des évaluations de suivi

12 -Procéder aux recrutements en deux étapes : admissibilité sur dossier, admission après audition et examen approfondis

13 -Toute évaluation ne doit être entreprise que si elle peut conduire à des conséquences significatives pour l’intéressé. Créer des structures de ressources humaines en vue d’une aide à une évolution de la carrière des personnels en difficulté

14 -Bien mettre en perspective le rôle de l’évaluation nationale (essentielle pour l’activité de recherche) et de l’évaluation locale (la mieux placée pour l’évaluation de l’enseignement et celle des charges d’intérêt collectif) en veillant néanmoins à ce que les structures locales d’évaluation incluent un pourcentage suffisant d’experts extérieurs.

...suite

Page 43: Contexte de la production  et de l’évaluation scientifique

Rapport Académie des Sciences

17 janvier 2011 DU BON USAGE DE LA BIBLIOMETRIE POUR L'ÉVALUATION INDIVIDUELLE DES CHERCHEURS

« L’évaluation individuelle des chercheurs reste très subjective et soumise à de nombreux biais potentiels. L’Académie a souhaité se pencher sur les pratiques bibliométriques quantitatives censées être plus objectives, et émettre un certain nombre de recommandations sur l’usage de la bibliométrie qui pourrait, moyennant le respect de règles rigoureuses, aider à l’évaluation qualitative. Ces règles devraient être reconnues à un niveau au moins européen. Le problème est d’autant moins simple que l’évaluation bibliométrique fait débat, avec des avis souvent tranchés pour ou contre son utilisation, dépendant en grande partie, mais pas seulement, des disciplines. »

Voir aperçu du rapoort en PDF -> les quelques points surlignés

Page 44: Contexte de la production  et de l’évaluation scientifique

Rapport de L’Inria2007

Les indicateurs sont des instruments de mesure importants mais qui doivent être utilisés de manière éclairée en respectant des règles de base :

• Les indicateurs actuels sont essentiellement des facteurs d'impact ce qui n'est pas synonyme de qualité.

• Il faut simplement s'attacher aux ordres de grandeur des indicateurs car même l'utilisation de sources diverses ne permet pas d'obtenir une grande précision.

• Il est nécessaire de corriger les indicateurs par l'avis d'experts.

• Il est nécessaire d'utiliser plusieurs indicateurs.

• Il est nécessaire de recouper des sources diverses pour obtenir une information pertinente.

Page 45: Contexte de la production  et de l’évaluation scientifique

JournalBasehttp://journalbase.cnrs.fr/

Une étude et un futur référentiel ? http://www.cybergeo.eu/index22864.html

• 5 bases sont étudiées. Les bases SSCI (2012 revues) et AHCI (1166 revues) du WOS (Thomson-reuter) comportent (en 2009) quelques 3178 revues, quand Scopus, base d’Elsevier en recense 6200, l’ERIH liste 5200 titres, et l’AERES en dénombre 6000.

• journalbase, résultats de la concordance et de la curation des 5 bases, recense 9551 revues différentes en SHS

• ... La suite sur : http://urfistinfo.hypotheses.org/1414

Page 46: Contexte de la production  et de l’évaluation scientifique

(re)penser l'évaluation

Page 47: Contexte de la production  et de l’évaluation scientifique

Appropriation du « numérique »

(re)penser le cycle de l’info la communication scientifiquel’évaluation de la recherche

Page 48: Contexte de la production  et de l’évaluation scientifique

Escience

• Appropriation des technologies, pratiques informationnelles nouvelles ou renouvelées (diffusion et accès)

• Data deluge – Big data – Open data – data curation• Gain de productivité ? (bouclage rapide du cycle)• Gain de créativité ? (tertiarisation documentaire)

Source : JimGray, 4thParadigm, 2009

Page 49: Contexte de la production  et de l’évaluation scientifique

Production scientifique et compartimentation des savoirs

...vers l’interdisplinarité

D’après Swanson (1986)

• Spécialisation de la R• Évaluation de la R=> accroissement de la Pub. Sc. (données, textes, revues, etc)

Il faut :

Mieux connecter

Mieux partager

Ouvrir le spectre documentaire

La KDD

Page 50: Contexte de la production  et de l’évaluation scientifique

Communication scientifique modèle 2020

Source : Julie M. HurdJASIST 51(14), 2000

Page 51: Contexte de la production  et de l’évaluation scientifique

Une histoire de la communication scientifique

[ dispositif de publication renouvelé ]

A partir de  : GUÉDON, J. (2001). In Oldenburg's Long Shadow : Librarians, Research Scientists, Publishers, and the Control of Scientific Publishing. In Creating the Digital Future : Association of Research Libraries,138th Annual Meeting, Toronto, Ontario (Canada), May 23-25, 2001.

micro-ordinateur

Page 52: Contexte de la production  et de l’évaluation scientifique

Indicateurs émergents ?IF, Shanghai, h index et quoi d’autre ?

> Des spécificités pour les domaines Sc.Par ex. SHS :

Importance Revues/Ouvrages ?Internationnalisation des disciplines ?

> Des pistes (les dia. suivantes) :• Système d’information (SI) local• Interfaçage / Mashup• visibilité internationale des références “hors

marché de l’information” : le “scholar web” (AO, outils spécialisés,…)

Page 53: Contexte de la production  et de l’évaluation scientifique

SI local ?

• Système d’Information (SI) local (global ?) imposé par la LOLF (indicateurs d’activités)

• Ex. sur Unice : CRI/DRED système SIRIUS (GRAAL) • Ex. sur l’INRA : ProdInra• Connexions des entrepôts d’informations nationaux et

locaux (AO institutionelles notamment)

Pour l’univ : ses propres indicateurs au regard de ceux proposés par Ost - IPERU

Toutes les refs peuvent êtres prises en considération (autre référentiel)

Interopérabilité des SI : constitution de BdD disciplinaires en France, connectivité avec d’autres BdD (HAL, …) (Cf ds les dia suivantes- IRRA/RAE en Uk)

Page 54: Contexte de la production  et de l’évaluation scientifique

Interfaçage / Mashup>> des outils de croissement de référentiels,

pour mesures ou visualisation différentes.

• SCEAS System http://sceas.csd.auth.gr/ (DBLP)

• *SCImago : http://www.scimagojr.com (Scopus - Elsevier)

• *Eigenfactor : http://www.eigenfactor.org/index.php (JCR)

• Authoratory : http://www.authoratory.com/ (Pubmed)

• Scival : http://www.scival.com/ (Elsevier) (voir .flv)

• ...

Page 55: Contexte de la production  et de l’évaluation scientifique

Le « scholar web »“ISI” factor vs. “web” factor

• Référencement établi vs. visibilité• usage/accès aux BdD commerciales vs. usage/accès

généralisé/libre• Evaluation maîtrisée par une méthode et une entreprise

vs. une multitude d’évaluations, méthodes, projets, ...• Publier autrement , relation Open access - evaluation

(voir enquête DOAJ->JCR (SNIP scimago http://wowter.net/2011/01/06/the-impact-factor-of-open-access-journals/ => env.

10% des revues)

Déjà à l’œuvre : CiteBase, Citeseer, Scholar google, webometric, clickstream, F1000, enquête… (dia suivante)

De l’Open Peer Review au Peer commentary : de la levée de l’anonymat des pairs évaluateurs aux commentaires de la communautés (avant, après, à la place)

Page 56: Contexte de la production  et de l’évaluation scientifique

Autres indicateurs• Citebase, 1999, rapport téléchargements/citations

http://www.citebase.org/ • Citeseer, Associations des refs, commentaires et

votes http://citeseer.ist.psu.edu

• F1000, 2002, « groupes qualités » http://www.f1000biology.com/home/

• IRRA (2005, Institutional Repositories and Research Assessment), RAE Software for Institutional Repositories : http://irra.eprints.org/white/

• Google citation, http://scholar.google.com/

• FiveStars pour une revue http://www.dlib.org/dlib/january12/shotton/01shotton.html

• Ranking web (2006 - CSIC) http://www.webometrics.info/

• principe du Clickstream (cf. dia suivante)

Page 57: Contexte de la production  et de l’évaluation scientifique

Clickstream

Page 58: Contexte de la production  et de l’évaluation scientifique

Altmetricshttp://altmetrics.org/manifesto/

 Une mesure de l'impact de la production scientique :

- pas seulement le texte complet mais aussi des « bouts » de texte

- accompagne les autres métriques

- ex : http://readermeter.org , plos-one, utopia (dia suivantes)

« In growing numbers, scholars are moving their everyday work to the web. Online reference managers Zotero and Mendeley each claim to store over 40 million articles (making them substantially larger than PubMed); as many as a third of scholars are on Twitter, and a growing number tend scholarly blogs »

Page 59: Contexte de la production  et de l’évaluation scientifique
Page 60: Contexte de la production  et de l’évaluation scientifique

Utopia – document augmenté

Altmetrics

Page 61: Contexte de la production  et de l’évaluation scientifique

Bookmarklet Altmetric

Sur http://www.altmetric.com/

Page 62: Contexte de la production  et de l’évaluation scientifique

Un nouveau modèle de la publication Scientifique entraînera de nouveaux modes d’évaluation de la recherche (y compris selon le principe de citation),...(d’autre lieux de publication, d’autres lieux de citations, etc... cf. Altmetrics par exemple http://altmetrics.org/manifesto/ )

Nouveaux modes d’évaluation de la recherche ?

En guise de conclusion

Page 63: Contexte de la production  et de l’évaluation scientifique

Quelques éléments bibliographiques

Biblio selective du cirad : http://coop-ist.cirad.fr/aide-a-la-publication/evaluer-la-recherche/indicateurs-de-publication-bibliographie/introduction

Groupe Diigo du Réseau des Urfist : http://groups.diigo.com/group/scientometrics

Cours "bibliométrie" Manuel Durand-Barthez : http://wiki-urfist.unice.fr/wiki_urfist/index.php/BIBLIOMETRIE

et la page dédiée aux notions de IF et Citations : http://www.scd.ups-tlse.fr/barthez/liens_citat.htm

Page 64: Contexte de la production  et de l’évaluation scientifique

Vos questions

?


Recommended