del proceso de apalancamiento que se ha vivido en otras actividades.
Y cito:
El dogma es sencillo: publicar es garantía de calidad.
La investigación publicada en revistas internacionales es de buena calidad.
Un científico no logra publicar algo porque es de mala calidad.
Un dogma cada día más insostenible.
Un dogma que todos tenemos que aceptar.
Las revistas científicas no pueden ser garantes de la calidad.
Las editoriales que publican las revistas tienen un negocio que sostener
y la economía dicta las normas para asegurar beneficios.
La calidad científica por sí misma no genera beneficios.
El número de artículos publicados sí que los genera.
El número de citas que recibe un artículo sí que los genera.
El negocio editorial de las revistas científicas depende del índice de impacto.
Maximizar el índice de impacto es el objetivo prioritario.
La cantidad de artículos publicados ayuda a lograrlo.
La calidad científica de lo publicado no lo garantiza.
La ciencia se ha convertido en un negocio: el negocio de las publicaciones científicas.
Nos lo recuerdan
Donald Siegel y Philippe Baveye,
en
“Battling the Paper Glut,” Letters, Science 329: 1466, 17 September 2010
El concepto “publicar o perecer” (publish or perish) apareció en EEUU en los 1950
y fue muy criticado en su momento, pero en los 1980 se impuso cual dictador
que somete a la comunidad académica.
Las universidades empezaron a utilizar de forma sistemática el número de artículos publicados al año por cada profesor como medida “fiable” de su productividad. Los investigadores se dedicaron a publicar a destajo seccionando su trabajo en las unidades más pequeñas posibles que fueran publicables (“salami slicing“). Los artículos escritos por muchos autores (en los que algunos ni siquiera se han leído el manuscrito) se convirtieron en la norma. Muchos doctorandos guiados por sus directores de tesis acabaron publicando de forma separada cada capítulo de su tesis doctoral, enviándolos a revistas incluso antes de la defensa de su tesis. A veces la defensa se ha de retrasar hasta que el doctorando tenga cierto número de artículos publicados (o aceptados) en revistas. Desde finales de los 1980 hasta finales de los 1990 el número de artículos publicados al año creció entre un 200% y un 300% (según el campo).
Ver la espina en ojo ajeno es más fácil que ver la astilla en ojo propio. Los males del publish or perish se están observando con toda su crudeza en la investigación que emerge de países como China e India. Estos países han imitado a Occidente hasta el punto de ofrecer incentivos o recompensas monetarias a los investigadores que logran un mayor número de artículos publicados en revistas de calidad (impactadas). Por ello, el número de artículos producidos por estos países está creciendo a pasos agigantados. En 2008, China superó a los Estados Unidos y se convirtió en el segundo productor científico (en número total de artículos publicados) después de Europa. Los índices bibliométricos que miden la calidad de las publicaciones indican que Estados Unidos es el mayor productor de ciencia de calidad del mundo, con diferencia. Aún así, muchos índices bibliométricos (como el índice h) incentivan que los investigadores publiquen un gran número de artículos para inflar sus índices de calidad (con autocitas o citas a “amigos” que luego les citen a ellos).
Las principales revistas científicas publican un número tan grande de manuscritos que la mayoría de los editores principales son incapaces de garantizar la calidad científica de lo que publican. Además, la revisión por pares cada día es más difícil de gestionar. Muchos editores encuentran muchos problemas para encontrar revisores entre los especialistas de renombre y tienen que recurrir a investigadores de menor prestigio. Los científicos de prestigio además de revisar artículos para revistas tienen que revisar propuestas de proyectos de investigación e informes gubernamentales. Sin embargo, la revisión por pares no es valorada por las instituciones académicas como mérito científico. Los revisores trabajan gratis para las grandes editoriales de publicaciones científicas sin recibir nada a cambio. Por ello, cada día que pasa es más difícil que un científico acepte revisar un artículo por amor al arte.
Donald Siegel y Philippe Baveye afirman en su artículo que, bajo ninguna circunstancia, el número de artículos publicados debe usarse como criterio para otorgar una plaza, promocionar, o clasificar a las instituciones académicas. Siempre se debería limitar el número de artículos al año que un investigador puede incluir como garantía de la calidad de su trabajo en su propio curriculum vitae adjunto a una solicitud. En los proyectos de investigación también se debería limitar el número máximo de artículos propios que se incluyan. El objetivo ideal es premiar la calidad y no la cantidad. El objetivo de las instituciones debe ser premiar a los investigadores que guían su trayectoria académica por la calidad y no por la cantidad.
Donald Siegel y Philippe Baveye también nos recuerdan la importancia vital de la revisión por pares en la ciencia actual. Debería implantarse algún mecanismo (algún tipo de índice bibliométrico) que premie a los revisores que realizan un trabajo de calidad (los editores y los propios autores podrían cuantificarlo de alguna manera). La formación en cómo revisar artículos científicos debería ser parte íntegra de la formación predoctoral y postdoctoral de los investigadores jóvenes. La eficacia de la revisión por pares es la herramienta clave para garantizar la calidad científica de lo que se publica. Los investigadores tienen que recordar que cuanto más artículos se publiquen en el mundo, más ineficiente será la revisión por pares. El dogma debe cambiar: una revisión por pares rigurosa es garantía de calidad.
La investigación publicada en revistas internacionales es de buena calidad.
Un científico no logra publicar algo porque es de mala calidad.
Un dogma cada día más insostenible.
Un dogma que todos tenemos que aceptar.
Las revistas científicas no pueden ser garantes de la calidad.
Las editoriales que publican las revistas tienen un negocio que sostener
y la economía dicta las normas para asegurar beneficios.
La calidad científica por sí misma no genera beneficios.
El número de artículos publicados sí que los genera.
El número de citas que recibe un artículo sí que los genera.
El negocio editorial de las revistas científicas depende del índice de impacto.
Maximizar el índice de impacto es el objetivo prioritario.
La cantidad de artículos publicados ayuda a lograrlo.
La calidad científica de lo publicado no lo garantiza.
La ciencia se ha convertido en un negocio: el negocio de las publicaciones científicas.
Nos lo recuerdan
Donald Siegel y Philippe Baveye,
en
“Battling the Paper Glut,” Letters, Science 329: 1466, 17 September 2010
El concepto “publicar o perecer” (publish or perish) apareció en EEUU en los 1950
y fue muy criticado en su momento, pero en los 1980 se impuso cual dictador
que somete a la comunidad académica.
Las universidades empezaron a utilizar de forma sistemática el número de artículos publicados al año por cada profesor como medida “fiable” de su productividad. Los investigadores se dedicaron a publicar a destajo seccionando su trabajo en las unidades más pequeñas posibles que fueran publicables (“salami slicing“). Los artículos escritos por muchos autores (en los que algunos ni siquiera se han leído el manuscrito) se convirtieron en la norma. Muchos doctorandos guiados por sus directores de tesis acabaron publicando de forma separada cada capítulo de su tesis doctoral, enviándolos a revistas incluso antes de la defensa de su tesis. A veces la defensa se ha de retrasar hasta que el doctorando tenga cierto número de artículos publicados (o aceptados) en revistas. Desde finales de los 1980 hasta finales de los 1990 el número de artículos publicados al año creció entre un 200% y un 300% (según el campo).
Ver la espina en ojo ajeno es más fácil que ver la astilla en ojo propio. Los males del publish or perish se están observando con toda su crudeza en la investigación que emerge de países como China e India. Estos países han imitado a Occidente hasta el punto de ofrecer incentivos o recompensas monetarias a los investigadores que logran un mayor número de artículos publicados en revistas de calidad (impactadas). Por ello, el número de artículos producidos por estos países está creciendo a pasos agigantados. En 2008, China superó a los Estados Unidos y se convirtió en el segundo productor científico (en número total de artículos publicados) después de Europa. Los índices bibliométricos que miden la calidad de las publicaciones indican que Estados Unidos es el mayor productor de ciencia de calidad del mundo, con diferencia. Aún así, muchos índices bibliométricos (como el índice h) incentivan que los investigadores publiquen un gran número de artículos para inflar sus índices de calidad (con autocitas o citas a “amigos” que luego les citen a ellos).
Las principales revistas científicas publican un número tan grande de manuscritos que la mayoría de los editores principales son incapaces de garantizar la calidad científica de lo que publican. Además, la revisión por pares cada día es más difícil de gestionar. Muchos editores encuentran muchos problemas para encontrar revisores entre los especialistas de renombre y tienen que recurrir a investigadores de menor prestigio. Los científicos de prestigio además de revisar artículos para revistas tienen que revisar propuestas de proyectos de investigación e informes gubernamentales. Sin embargo, la revisión por pares no es valorada por las instituciones académicas como mérito científico. Los revisores trabajan gratis para las grandes editoriales de publicaciones científicas sin recibir nada a cambio. Por ello, cada día que pasa es más difícil que un científico acepte revisar un artículo por amor al arte.
Donald Siegel y Philippe Baveye afirman en su artículo que, bajo ninguna circunstancia, el número de artículos publicados debe usarse como criterio para otorgar una plaza, promocionar, o clasificar a las instituciones académicas. Siempre se debería limitar el número de artículos al año que un investigador puede incluir como garantía de la calidad de su trabajo en su propio curriculum vitae adjunto a una solicitud. En los proyectos de investigación también se debería limitar el número máximo de artículos propios que se incluyan. El objetivo ideal es premiar la calidad y no la cantidad. El objetivo de las instituciones debe ser premiar a los investigadores que guían su trayectoria académica por la calidad y no por la cantidad.
Donald Siegel y Philippe Baveye también nos recuerdan la importancia vital de la revisión por pares en la ciencia actual. Debería implantarse algún mecanismo (algún tipo de índice bibliométrico) que premie a los revisores que realizan un trabajo de calidad (los editores y los propios autores podrían cuantificarlo de alguna manera). La formación en cómo revisar artículos científicos debería ser parte íntegra de la formación predoctoral y postdoctoral de los investigadores jóvenes. La eficacia de la revisión por pares es la herramienta clave para garantizar la calidad científica de lo que se publica. Los investigadores tienen que recordar que cuanto más artículos se publiquen en el mundo, más ineficiente será la revisión por pares. El dogma debe cambiar: una revisión por pares rigurosa es garantía de calidad.
"Ahogados en artículos: el negocio de las publicaciones científicas" y se puede leer en
este enlace
procede de uno de los mejores blogs en castellano
sobre Física - y sobre Ciencia, en general - de la WWW :
"Francis (th)E mule Science's News",
aunque yo lo he leido en la edición de Diario Médico del pasado lunes,
27 de Septiembre.
Un saludo y gracias a todos por leerme.
España ocupa el noveno puesto en producción científica.
Esto casa mal cuando analizas la realidad educativa, económica y social de nuestra piel de toro :
1. Si hacemos una lista de las doscientas mejores universidades del mundo,
no aparece ninguna de las españolas.
2. España es un país totalmente atrasado en nuevas ideas
- apartado totalmente de las corrientes filosóficas -
atrasado en Ciencia
y atrasado en Tecnología - importamos mucho más de lo que producimos -
¿ Alguien lo entiende ?
Pues la explicación te la da el artículo titulado
"Universidad española: mucha investigación con poco impacto" que firma J. A. Aunión
en la edición de El País del pasado lunes 11 de octubre de 2010
y que se puede leer en este
enlace
donde se usa la información del SIR - segundo ranking internacional de instituciones de investigación -.
Resulta que somos la novena potencia en producción pero la vigésimo segunda ( puesto 22 ) por
repercusión de lo que se publica.
Las universidades españolas analizadas - 51 universidades de las 72 que existen -
generan el 66% de la producción científica
y si sólo se considerase el trabajo de éstas quedaríamos en el puesto décimo en producción
pero el vigésimo primero ( puesto 21 ) por índice de impacto.
En lo que se refiere a Ciencias Básicas e Ingenierías - el apartado dónde se incluye Física -
la clasificación está encabezada por la
Stanford University ( USA ):
* un 2,5 de índice de impacto
* un total de 13.307 trabajos enviados en el periodo 2004-2008
y siendo las cinco primeras de España :
Universitat Autònoma de Barcelona :
* un 1,45 de índice de impacto
* un total de 4.116 trabajos enviados en el periodo 2004-2008
Universitat de les Illes Balears :
* un 1,43 de índice de impacto
* un total de 1.285 trabajos enviados en el periodo 2004-2008
Universitat Rovira i Virgilli
* un 1,42 de índice de impacto
* un total de 1.694 trabajos enviados en el periodo 2004-2008
Universidad Autónoma de Madrid
* un 1,36 de índice de impacto
* un total de 4.066 trabajos enviados en el periodo 2004-2008
Universitat de Barcelona :
* un 1,35 de índice de impacto
* un total de 5.795 trabajos enviados en el periodo 2004-2008
Y... ¿ cuál es la realidad de las universidades andaluzas ?
Pues ¡ qué curiosidad ! volvemos a encontrarnos con las que hacen los deberes.
Entre las cinco primeras españolas aparecen
la UCO - Universidad de Córdoba - en cuarto puesto
en el apartado de Ciencias de la Salud
y en el apartado Ciencias Sociales y Humanidades
la UGR - Universidad de Granada - en el cuarto puesto.
Hace unos meses escuché una teoría de uno de los catedráticos de mi universidad
que venía a ser aquello de Orwell de... 'algunos somos más iguales que otros'
esto es... la US destaca por sus islas de excelencia... xD
en la mar 'picá' de la indolencia.
¿ Recuerdan la fábula de la zorra que no podía alcanzar el racimo de uvas ?
Pues eso.
Un saludo y gracias a todos por leerme.