Chapado




Chapado
Bargueño barroco de Amberes
En el siglo XVII los ebanistas flamencos recuperaron la técnica del chapado, abandonada desde la caída de Imperio romano. En esta imagen podemos admirar un bargueño de esa época fabricado de la ciudad de Amberes chapado en carey y ébano.

Chapado, aplicación de una lámina muy fina de madera noble, oro o plata sobre la superficie de un objeto o mueble. Su finalidad es proporcionar apariencia lujosa a una pieza construida con materiales de baja calidad.
La marquetería es un tipo específico de chapado con fines decorativos. Para realizarla se utilizan pequeñas piezas de madera noble y otros materiales, como el marfil, el nácar, el hueso o el latón, dispuestas sobre la superficie de un objeto en forma de motivos geométricos, vegetales o de escenas figurativas.
2
HISTORIA
El arte del chapado se ha practicado desde tiempos muy antiguos por artesanos egipcios, griegos y romanos. Con la caída del Imperio romano (476 d.C.), dejó de utilizarse durante una época; sin embargo, los artesanos alemanes y flamencos lo recuperaron durante el siglo XVII. Trabajaban con maderas exóticas, como el palisandro, la caoba y el ébano, además de emplear otros materiales más lujosos, como el carey y el marfil.
Esta práctica se extendió rápidamente por Francia e Inglaterra, convirtiéndose en una parte esencial del mobiliario refinado. El empleo tradicional del roble dio paso a la utilización de una mayor variedad de maderas, como el nogal, el tejo, el moral, el codeso, el acebo, el castaño, el haya, el olivo y otras procedentes de árboles frutales. El arte del chapado alcanzó su punto álgido en el siglo XVIII, con las obras del francés André Charles Boulle.
La marquetería se aplicó a todo tipo de muebles, particularmente mesas, vitrinas y cajas de reloj. Los diseños más populares consistían en arabescos, flores y algas (madera de nogal con incrustaciones de boj y acebo), aunque también eran muy apreciados los dibujos geométricos de rombos. El contorno de los tableros se adornaba en ocasiones con tiras de chapado colocadas a modo de marco.
3
TÉCNICA
En el antiguo Egipto, las tiras de chapado se cortaban con azuelas. En los siglos XVII y XVIII se utilizaban serruchos, con los que se conseguían bandas de diferentes grosores. La sierras mecánicas aparecieron en el siglo XIX. Cualquiera que sea la herramienta que se emplee, el diseño resultante depende de la dirección en la que se corte la madera. Los troncos que se cortan longitudinalmente producen laminillas con vetas; si se cortan en sentido horizontal se obtienen láminas circulares que muestran los anillos concéntricos de crecimiento del árbol. Si la chapa se corta haciendo girar el tronco en un torno, se produce una lámina continua con una superficie jaspeada. También se pueden obtener otros diseños dependiendo de las características del árbol. Por ejemplo, el chapado en forma de ostra se hace con láminas longitudinales de ramas de nogal, que presenta un diseño repetitivo en espiral semejante a dicho molusco. Si se desea un efecto especialmente llamativo, se pueden combinar varios tipos de madera. La aparición de sierras mecánicas en el siglo XIX, permitió la obtención de chapas mucho más delgadas y preparó el terreno para el mobiliario fabricado en serie.
La técnica del chapado se utiliza en la fabricación de tableros contrachapados (véase Madera; Carpintería y ebanistería). En el siglo XX, el trabajo tradicional en madera aún sigue vigente; sin embargo, en algunas ocasiones se ha comenzado a emplear nuevos materiales de tipo plástico, como la formica y la melamina.

Filosofía de la ciencia




Filosofía de la ciencia
Filosofía de la ciencia, investigación sobre la naturaleza general de la práctica científica. La filosofía de la ciencia se ocupa de saber cómo se desarrollan, evalúan y cambian las teorías científicas, y si la ciencia es capaz de revelar la verdad de las entidades ocultas y los procesos de la naturaleza. Su objeto es tan antiguo y se halla tan extendido como la ciencia misma. Algunos científicos han mostrado un vivo interés por la filosofía de la ciencia y unos pocos, como Galileo, Isaac Newton y Albert Einstein, han hecho importantes contribuciones. Numerosos científicos, sin embargo, se han dado por satisfechos dejando la filosofía de la ciencia a los filósofos, y han preferido seguir 'haciendo ciencia' en vez de dedicar más tiempo a considerar en términos generales cómo 'se hace la ciencia'. Entre los filósofos, la filosofía de la ciencia ha sido siempre un problema central; dentro de la tradición occidental, entre las figuras más importantes anteriores al siglo XX destacan Aristóteles, René Descartes, John Locke, David Hume, Immanuel Kant y John Stuart Mill. Gran parte de la filosofía de la ciencia es indisociable de la epistemología, la teoría del conocimiento, un tema que ha sido considerado por casi todos los filósofos.
2
EL PROBLEMA DE LA INDUCCIÓN
Los resultados de la observación y experimentación suministran la evidencia para una teoría científica, pero no pueden demostrar que la teoría es correcta. Hasta la generalización empírica más modesta, por ejemplo que toda agua hierve a la misma temperatura, va más allá de lo que puede ser deducido de la evidencia en sentido estricto. Si las teorías científicas no expresaran más que la evidencia que suele sustentarlas, tendrían poca utilidad. No podrían ser utilizadas para predecir el curso de la naturaleza, y carecerían de poder explicativo.
El vínculo no demostrativo o inductivo entre la evidencia y la teoría plantea uno de los problemas fundamentales de la teoría del conocimiento, el problema de la inducción, dada su formulación clásica por David Hume, el filósofo escocés del siglo XVIII. Hume consideró simples predicciones basadas en observaciones pasadas, por ejemplo, un vaticinio como: el sol saldrá mañana, teniendo en cuenta que se ha observado que siempre salía en el pasado. La vida sería imposible sin anticipar el futuro, pero Hume construyó una argumentación excelente para mostrar que estas inferencias son indefendibles desde presupuestos racionales. Esta conclusión puede parecer increíble, pero la argumentación de Hume tiene todavía que ser contestada de un modo concluyente. Admitía que las deducciones inductivas han sido por lo menos razonablemente fiables hasta ahora, o no estaríamos vivos para considerar el problema, pero afirmaba que sólo podemos tener una razón para continuar confiando en la inducción si tenemos algún motivo para creer que la inducción seguirá siendo fiable en el futuro. Hume demostró entonces que tal razón no es posible. El nudo del problema es que pretender que la inducción será una garantía en el futuro es, en sí misma, una predicción y sólo podría ser justificada de manera inductiva, lo que llevaría a una cuestión de principio. En concreto, mantener que la inducción quizá funcionará en el futuro porque ha resultado útil en el pasado es razonar en círculo, asumiendo la inducción para justificarla. Si esta argumentación escéptica es válida, el conocimiento inductivo parece imposible, y no hay un argumento racional que se pueda plantear para disuadir a alguien que opina, por ejemplo, que es más seguro salir de la habitación por las ventanas que por la puerta.
El problema de la inducción se relaciona de forma directa con la ciencia. Sin una respuesta a la argumentación de Hume, no hay razón para creer en ninguno de los aspectos de una teoría científica que vaya más allá de lo que, en realidad, se ha observado. El asunto no es que las teorías científicas no resulten nunca ciertas por completo: esto es o debería ser una verdad obvia. El tema es más bien que no tenemos ninguna razón para suponer, por ejemplo, que el agua que no hemos sometido a prueba hervirá a la misma temperatura que el agua que hemos probado. Los filósofos han realizado un continuo esfuerzo para resistir a esta conclusión escéptica. Algunos han tratado de demostrar que los modelos científicos para sopesar evidencias y formular inferencias son, de algún modo, racionales por definición; otros, que los éxitos pasados de nuestros sistemas inductivos son susceptibles de emplearse para justificar su uso futuro sin caer en círculos viciosos. Un tercer enfoque sostiene que, aunque no podamos demostrar que la inducción funcionará en el futuro, sí podemos demostrar que lo hará si algún método de predicción lo hace, por lo que es razonable utilizarlo. Mediante teorías más recientes, algunos filósofos han sostenido que la actual fiabilidad de las prácticas inductivas, algo que Hume no niega, basta para proporcionar conocimiento inductivo sin otro requerimiento que el que la fiabilidad esté justificada.
Karl Popper ha aportado una respuesta más radical al problema de la inducción, una solución que constituye la base de su influyente filosofía de la ciencia. De acuerdo con Popper, el razonamiento de Hume de que las inferencias son injustificables desde una perspectiva racional es correcto. Sin embargo, esto no amenaza la racionalidad de la ciencia, cuyas inferencias son, aunque parezca lo contrario, deductivas en exclusiva. La idea central de Popper es que mientras la evidencia nunca implicará que una teoría sea verdadera, puede rebatir la teoría suponiendo que sea falsa. Así, un número de cuervos negros no implica que todos lo cuervos sean negros, pero la presencia de un único cuervo blanco supone que la generalización es falsa. Los científicos pueden, de esta forma, saber que una teoría es falsa, sin recurrir a la inducción. Además, enfrentados a una elección entre dos teorías opuestas, pueden ejercer una preferencia racional si una de las teorías ha sido refutada pero la otra no; entonces es racional preferir una teoría que podría ser verdad respecto a una que se sabe es falsa. La inducción nunca entra en escena, de modo que el argumento de Hume pierde fuerza.
Esta ingeniosa solución al problema de la inducción se enfrenta con numerosas objeciones. Si fuera cierta, los científicos nunca tendrían ningún motivo para creer que alguna de sus teorías o hipótesis son siquiera correctas por aproximación o que alguna de las predicciones extraídas de ellas es verdad, ya que estas apreciaciones sólo podrían ser justificadas por vía inductiva. Además, parece que la posición de Popper ni siquiera permite a los científicos saber que una teoría es falsa, puesto que, según él, la evidencia que podría contradecir una teoría, puede no ser nunca reconocida como correcta. Por desgracia, las inferencias inductivas que los científicos plantean no parecen ni evitables ni justificables.
3
EL PROBLEMA DE LA DESCRIPCIÓN
Aunque la discusión de Hume sobre la justificación de la inducción representa un hito en la historia de la filosofía, sólo ofrece una cruda descripción de cómo, para bien o para mal, los métodos inductivos funcionan en realidad. Mantenía que la inferencia inductiva es sólo un hábito de formación. Al haber visto muchos cuervos negros, de modo tácito aplicamos la regla 'más de lo mismo' y suponemos que el próximo cuervo que encontremos será también negro. Esto, como es evidente, no hace justicia a la práctica inferencial de los científicos, ya que éstos infieren a partir de la observación de entidades de una clase para llegar a la existencia y comportamiento de entidades de una clase muy diferente y a menudo no observable. 'Más de lo mismo' no llevará a los científicos desde lo que se ve en el laboratorio a la existencia de los electrones o los campos electromagnéticos. ¿Cómo comprueban entonces los científicos sus teorías, sopesan la evidencia y establecen inferencias? Este es el problema de la descripción en contraste con el problema de la justificación de Hume.
El problema descriptivo puede parecer fácil de resolver: sólo hay que preguntar a los científicos que describan lo que hacen. Es una ilusión. Los científicos pueden ser eficaces sopesando evidencias, pero no son eficaces ofreciendo una declaración de principios que recoja cómo llegan a ellos. Esto no es más sorprendente que el hecho de que los nativos de habla inglesa sean incapaces de explicar los principios por los que diferencian las oraciones gramaticales de las no gramaticales. Lo más sorprendente es cuán difícil ha sido resolver el problema de la inducción incluso para los filósofos de la ciencia que han dedicado a ello su actividad.
Quizá la forma más corriente de mostrar cómo se comprueban las teorías sea mediante el modelo hipotético-deductivo, según el cual las teorías se comprueban examinando las predicciones que implican. La evidencia que muestra que una predicción es correcta, confirma la teoría; la evidencia incompatible con la predicción, rebate la teoría, y cualquier otra evidencia es irrelevante. Si los científicos tienen una evidencia suficiente que corrobora y una no evidencia que rebate, pueden inferir que la teoría examinada es correcta. Este modelo, aunque es aproximado, parece en principio ser un reflejo razonable de la práctica científica, pero está envuelto en dificultades concretas. La mayoría de éstas demuestran que el modelo hipotético-deductivo es demasiado permisivo, al tratar evidencias irrelevantes como si aportaran certezas materiales. Para mencionar tan sólo un problema, la mayoría de las teorías científicas no implican ninguna consecuencia observable por sí misma, sino sólo al relacionarse en conjunto con otras suposiciones de base. Si no hay alguna clase de restricción sobre las suposiciones admisibles, el modelo permitiría considerar cualquier observación como evidencia para casi cualquier teoría. Esto es un resultado absurdo, pero es difícil en extremo especificar las restricciones apropiadas.
Dadas las dificultades que afronta el modelo hipotético-deductivo, algunos filósofos han reducido sus miras y han intentado dar un modelo mejor de refuerzo inductivo para una serie de casos más limitada. El caso más sencillo es una generalización empírica del tipo 'todos los cuervos son negros'. Aquí parece claro que los cuervos negros apoyan la hipótesis, los cuervos no negros la refutan, y los no cuervos son irrelevantes. Aún así, esta modesta consideración entraña otros problemas. Supongamos que aplicamos el mismo tipo de consideración a la hipótesis un tanto exótica de que todas las cosas no negras no son cuervos. Los no negros no cuervos (flores blancas, por ejemplo) la apoyan, los cuervos no negros la refutan, y los objetos son irrelevantes. El problema surge cuando observamos que esta hipótesis equivale a la hipótesis original del cuervo; decir que todas las cosas no negras son no cuervos es sólo un modo poco usual de decir que todos los cuervos son negros. Entonces ¿cualquier evidencia que apoye una hipótesis apoya la otra? Esto nos deja, sin embargo, con la conclusión bastante extraña de que las flores blancas proporcionan la evidencia de que todos los cuervos son negros. Esta paradoja del cuervo parece un truco lógico, pero ha resultado muy difícil de resolver.
4
EXPLICACIÓN
Un reciente trabajo sobre el problema de los métodos de descripción inferencial en la ciencia ha tratado de evitar la debilidad del modelo hipotético- deductivo yendo más allá de las relaciones lógicas para responder a la conexión de la evidencia con la teoría. Algunas consideraciones intentan describir cómo la plausibilidad de teorías e hipótesis puede variar conforme se va avanzando en las comprobaciones, y han enlazado esta idea con un cálculo formal de probabilidades. Otras apelan al contenido específico de las hipótesis sometidas a comprobación, en especial las afirmaciones causales que hacen muchas de ellas. En el siglo XIX, John Stuart Mill dio cuenta de las inferencias desde los efectos a las causas que puede ser extendida para aportar un modelo de inferencia científica. Uno de los procedimientos por el que se ha intentado esa expansión ha sido recurriendo al concepto de explicación. La idea básica del modelo de inducción para la mejor explicación es que los científicos infieren desde la evidencia válida a la hipótesis que, de ser correcta, proporcionaría la mejor explicación de esa evidencia.
Si la inferencia para la mejor explicación debe de ser algo más que un eslogan, sin embargo, se requiere alguna consideración independiente de explicación científica. El punto de partida para la mayoría del trabajo filosófico contemporáneo sobre la naturaleza de la explicación científica es el modelo deductivo-nomológico, según el cual una explicación científica es una deducción de una descripción del fenómeno para ser explicada desde un conjunto de premisas que incluye, por lo menos, una ley de la naturaleza. Así, se podría explicar por qué sube el mercurio en un termómetro señalando el ascenso de la subida en la temperatura a partir de una ley que relaciona la temperatura y el volumen de los metales. El tema aquí es saber qué hace que algo sea una ley de la naturaleza, otro de los tópicos centrales de la filosofía de la ciencia. No todas las generalizaciones verdaderas son leyes de la naturaleza. Por ejemplo, la afirmación de que todas las esferas de oro tienen un diámetro de menos de diez millas es una verdad presumible pero no es una ley. Las genuinas leyes de la naturaleza parecen tener un tipo de necesidad de la que carece la afirmación sobre las esferas de oro. Describen no sólo cómo funcionan las cosas en realidad sino cómo, de algún modo, deben funcionar. Sin embargo, está lejos de ser evidente cómo tendría que articularse esta noción de necesidad.
Otra dificultad para el modelo deductivo-nomológico de explicación es que, al igual que el modelo hipotético-deductivo de comprobación, con el cual mantiene una notable similitud estructural, este modelo también es demasiado permisivo. Por ejemplo, el periodo (la duración de una oscilación) de un péndulo determinado puede deducirse de la ley que se refiere al periodo y recorrido de los péndulos en general, junto con el recorrido de ese péndulo determinado. El recorrido del péndulo es considerado de modo habitual como explicativo del periodo. Sin embargo, la deducción puede llevarse a cabo en el sentido opuesto: es posible calcular el recorrido de un péndulo si se conoce su periodo. Pero el periodo no está considerado por lo común como explicativo del recorrido del péndulo. De este modo, mientras que la deducción funciona en ambos sentidos, se considera que la explicación va sólo en un único sentido. Dificultades de esta índole han llevado a algunos filósofos a desarrollar procesos causales de explicación, según los cuales explicamos los acontecimientos aportando información sobre sus procesos causales. Este enfoque es atractivo, pero pide un análisis de causalidad, un proyecto que se enfrenta a muchas de las mismas dificultades que tenía analizar las leyes de la naturaleza. Además, se necesita decir más sobre qué causas de un acontecimiento lo explican. El Big Bang es presumiblemente parte de la historia causal de cada acontecimiento, pero no aporta una explicación adecuada para la mayoría de ellos. Una vez más, hay un problema de permisividad excesiva.
5
REALISMO E INSTRUMENTALISMO
Uno de los objetivos de la ciencia es salvar los fenómenos, construir teorías que supongan una descripción correcta de los aspectos observables del mundo. De particular importancia es la capacidad para predecir lo que es observable pero todavía no es observado, ya que una predicción precisa hace factible la aplicación de la ciencia a la tecnología. Lo que resulta más controvertido es si la ciencia debe también aspirar a la verdad sobre aquello que no es observable, sólo por comprender el mundo, incluso sin un propósito práctico. Aquellos que pretenden que la ciencia debería, y que así lo hace, ocuparse de revelar la estructura oculta del mundo son conocidos como realistas. Para éstos, las teorías tratan de describir esa estructura. Por oposición, aquellos que dicen que la labor de la ciencia es sólo salvar los fenómenos observables son conocidos como instrumentalistas, ya que para ellos las teorías no son descripciones del mundo invisible sino instrumentos para las predicciones sobre el mundo observable. La disputa entre realistas e instrumentalistas ha sido un tema constante en la historia de la filosofía de la ciencia.
Los científicos realistas no afirman que todo en la ciencia actual es correcto pero, como era de esperar, afirman que las mejores teorías actuales son poco más o menos verdaderas, que la mayoría de las entidades a las que se refieren existen en realidad, y que en la historia de la ciencia las últimas teorías en un campo concreto han estado por lo común más próximas a la verdad que las teorías que sustituían. Para los realistas, el progreso científico consiste sobre todo en generar descripciones cada vez más amplias y exactas de un mundo en su mayor parte invisible.
Algunos instrumentalistas niegan que las teorías puedan describir aspectos no observables del mundo sobre la base de que no se pueden llenar de significado las descripciones de lo que no puede ser observado. Según esta idea, las teorías de alto nivel son ingenios de cálculo sin significado literal: no son más descripciones del mundo que lo que son los circuitos de una calculadora electrónica. Otros instrumentalistas han afirmado que las teorías son descripciones, pero sólo del mundo observable. Hablar de partículas atómicas y campos gravitatorios sólo es en realidad una taquigrafía de descripciones de interpretaciones punteras y un movimiento observable. La versión contemporánea más influyente del instrumentalismo, conocida como empirismo constructivo, adopta una tercera vía. El significado de las teorías tiene que ser creído literalmente. Si una teoría parece contar una historia sobre partículas invisibles, entonces esa es la historia que se cuenta. Los científicos, sin embargo, nunca tienen derecho o necesidad de creer que esas historias son verdad. Todo lo más que puede o necesita ser conocido es que los efectos observables de una teoría —pasada, presente y futura— son verdaderos. La verdad del resto de la teoría es cómo pueda ser: toda la cuestión es que la teoría cuenta una historia que produce sólo predicciones verdaderas acerca de lo que, en principio, pudiera ser observado.
El debate entre realistas e instrumentalistas ha generado argumentos por parte de ambas escuelas. Algunos realistas han montado un razonamiento de no milagro. Realistas e instrumentalistas están de acuerdo en que nuestras mejores teorías en las ciencias físicas han tenido un notable éxito de predicción. El realista mantiene que este éxito sería un milagro si las teorías no fueran por lo menos verdaderas por aproximación. Desde un punto de vista lógico es posible que una historia falsa en su totalidad sobre entidades y procesos no observables pudiera suponer todas esas predicciones verdaderas, pero creer esto es bastante improbable y, por lo tanto, irracional. Planteado el supuesto de que a una persona se le da un mapa muy detallado, cuyo contenido describe con gran detalle el bosque en el que se encuentra, incluso muchos desfiladeros y picos de montañas inaccesibles. Examina el mapa contrastando los datos en diferentes lugares y, en cada caso, lo que ve es justo como lo pinta el mapa. Queda la posibilidad de que el mapa sea incorrecto por completo en las zonas que no ha examinado, pero esto no resulta verosímil. El realista mantiene que la situación es análoga para toda teoría científica que haya sido bien comprobada.
Los instrumentalistas han hecho numerosas objeciones al razonamiento del 'no milagro'. Algunos han afirmado que incurre en la petición de principio, tanto como el argumento considerado con anterioridad, de que la deducción funcionará en el futuro porque ha funcionado en el pasado. Inferir del éxito observado de una teoría científica la verdad de sus afirmaciones sobre los aspectos no observables del mundo es utilizar en concreto el modo de deducción cuya legitimidad niegan los instrumentalistas. Otra objeción es que la verdad de la ciencia actual no es en realidad la mejor explicación de su éxito de observación. Según esta objeción, Popper estaba en lo cierto, al menos, cuando afirmó que la ciencia evoluciona a través de la supresión de las teorías que han fracasado en la prueba de la predicción. No es de extrañar que se piense, por lo tanto, que las teorías que ahora se aceptan han tenido éxito en cuanto a la predicción: si no lo hubieran tenido, ahora no las aceptaríamos. Así, la hipótesis que mantiene que nuestras teorías son ciertas no necesita explicar su éxito de predicción. Por último, algunos instrumentalistas recurren a lo que se conoce como la indeterminación de la teoría por los datos. No importa el grado de validez de la evidencia, sabemos que hay en principio innumerables teorías, incompatibles entre sí pero todas compatibles con esa evidencia. Como mucho, una de esas teorías puede ser verdadera. Tal vez si la objeción resulta válida, es poco probable que la teoría elegida como eficaz sea la verdadera. Desde este punto de vista, lo que sería milagroso no es que las teorías de éxito a las que llegan los científicos sean falsas, sino que sean verdaderas.
Una de los razonamientos recientes más populares de los instrumentalistas es la 'inducción pesimista'. Desde el punto de vista de la ciencia actual, casi todas las teorías complejas con más de cincuenta años pueden ser entendidas como falsas. Esto se oculta a menudo en la historia de la ciencia que presentan los libros de texto de ciencia elementales, pero, por ejemplo, desde el punto de vista de la física contemporánea, Kepler se equivocaba al afirmar que los planetas se mueven en elipses, y Newton al sostener que la masa de un objeto es independiente de su velocidad. Pero si todas las teorías pasadas han sido halladas incorrectas, entonces la única deducción razonable es que todas, o casi todas, las teorías actuales serán consideradas erróneas de aquí a otro medio siglo. En contraste con esta discontinuidad en la historia de las teorías, según el instrumentalismo se ha producido un crecimiento constante y sobre todo acumulativo en el alcance y precisión de sus predicciones observables. Cada vez han llegado a ser mejores salvando los fenómenos, su único cometido apropiado.
Se han planteado varias respuestas a la inducción pesimista. La mayoría de los realistas han aceptado tanto la premisa de que las teorías del pasado han sido falsas y la conclusión de que las teorías actuales serán quizá falsas también. Sin embargo, han insistido en que todo esto es compatible con la afirmación central realista de que las teorías tienden a mejorar las descripciones del mundo respecto a aquéllas a las que reemplazan. Algunos realistas también han acusado a los instrumentalistas de exagerar el grado de discontinuidad en la historia de la ciencia. Se puede cuestionar también la validez de una deducción desde el grado de falsedad pretérito al actual. De acuerdo con los realistas, las teorías actuales han sustituido a sus predecesoras porque ofrecen un mejor tratamiento de la evidencia cada vez más amplio y preciso; por eso está poco claro por qué la debilidad de las viejas teorías debería ir en contra de las que las sucedan.
6
OBJETIVIDAD Y RELATIVISMO
Aunque realistas e instrumentalistas discrepan sobre la capacidad de la ciencia para describir el mundo invisible, casi todos coinciden en que la ciencia es objetiva, porque descansa sobre evidencias objetivas. Aunque algunos resultados experimentales son inevitablemente erróneos, la historia de la evidencia es en gran parte acumulativa, en contraste con la historia de las teorías de alto nivel. En resumen, los científicos sustituyen las teorías pero aumentan los datos. Sin embargo, esta idea de la objetividad y autonomía de la evidencia observacional de las teorías científicas ha sido criticada, sobre todo en los últimos 30 años.
La objetividad de la evidencia ha sido rechazada partiendo de la premisa de que la evidencia científica está, de manera inevitable, contaminada por las teorías científicas. No es sólo que los científicos tiendan a ver lo que quieren ver, sino que la observación científica es sólo posible en el contexto de presuposiciones teóricas concretas. La observación es 'teoría cargada'. En una versión extrema de esta idea, las teorías no pueden ser probadas, ya que la evidencia siempre presupondrá la misma teoría que se supone tiene que probar. Versiones más moderadas permiten alguna noción de la prueba empírica, pero siguen introduciendo discontinuidades históricas en la evidencia para compararla con las discontinuidades a nivel teórico. Si todavía es posible hacer algún juicio del progreso científico, no puede ser en términos de acumulación de conocimiento, ya se trate de un enfoque teórico o desde el punto de vista de la observación.
Si la naturaleza de la evidencia cambia conforme cambian las teorías científicas, y la evidencia es nuestro único acceso a los hechos empíricos, entonces quizá los hechos también cambien. Este es el relativismo en la ciencia, cuyo representante reciente más influyente es Thomas Kuhn. Al igual que el gran filósofo alemán del siglo XVIII Immanuel Kant, Kuhn mantiene que el mundo que la ciencia investiga debe ser un mundo hasta cierto punto constituido por las ideas de aquellos que lo estudian. Esta noción de la constitución humana del mundo no es fácil de captar. No ocurre lo mismo que en la visión idealista clásica que explica que los objetos físicos concretos sólo son en realidad ideas reales o posibles, implicando que algo es considerado como objeto físico o como un objeto de cierto tipo, por ejemplo una estrella o un planeta, sólo en la medida en la que la gente así los categoriza. Para Kant, la contribución que parte de la idea y lleva a la estructura del mundo es sustancial e inmutable. Consiste en categorías muy generales tales como espacio, tiempo y causalidad. Para Kuhn, la contribución es asimismo sustancial, pero también muy variable, ya que la naturaleza de la contribución viene determinada por las teorías y prácticas concretas de una disciplina científica en un momento determinado. Cuando esas teorías y prácticas cambian, por ejemplo, en la transición desde la mecánica newtoniana a las teorías de Einstein, también cambia la estructura del mundo sobre la que tratan este conjunto de teorías. La imagen de los científicos descubriendo más y más sobre una realidad idea independiente aparece aquí rechazada por completo.
Aunque radical desde el plano metafísico, el concepto de ciencia de Kuhn es conservador desde una perspectiva epistemológica. Para él, las causas del cambio científico son, casi de forma exclusiva, intelectuales y pertenecen a una reducida comunidad de científicos especialistas. Hay, sin embargo, otras opciones actuales de relativismo sobre la ciencia que rechazan esta perspectiva de carácter interno, e insisten en que las principales causas del cambio científico incluyen factores sociales, políticos y culturales que van mucho más allá de los confines del laboratorio. Ya que no hay razón para creer que estos factores variables conducen al descubrimiento de la verdad, esta idea social constructivista de la ciencia es quizás casi más hostil al realismo científico que lo es la posición kuhniana.
Los realistas científicos no han eludido estos desafíos. Algunos han acusado a los relativistas de adoptar lo que viene a ser una posición de autocontradicción. Si, como se afirma, no hay nada que sea verdad, esta afirmación tampoco puede ser entonces verdadera. Los realistas han cuestionado también la filosofía del lenguaje latente detrás de la afirmación de Kuhn de que las sucesivas teorías científicas se refieren a diferentes entidades y fenómenos, manteniendo que el constructivismo social ha exagerado la influencia a largo plazo de los factores no cognitivos sobre la evolución de la ciencia. Pero el debate de si la ciencia es un proceso de descubrimiento o una invención es tan viejo como la historia de la ciencia y la filosofía, y no hay soluciones claras a la vista. Aquí, como en otras partes, los filósofos han tenido mucho más éxito en poner de manifiesto las dificultades que en resolverlas. Por suerte, una valoración de cómo la práctica científica resiste una explicación puede iluminar por sí misma la naturaleza de la ciencia.

Dibujo




Dibujo
Dibujo de Miguel Ángel
En este dibujo de Miguel Ángel se aprecia su maestría para el retrato y el claroscuro. Sus dibujos solían ser estudios preliminares para otros trabajos.

Dibujo, representación gráfica sobre una superficie, generalmente plana, por medio de líneas o sombras, de objetos reales o imaginarios o de formas puramente abstractas. El dibujo suele hacerse a lápiz, tiza, tinta o carboncillo, o combinando algunos de estos procedimientos.
Dibujo japonés en tinta
En oposición al dibujo occidental, el japonés se realiza con trazos mínimos que expresan sutilmente forma y espacio. La técnica es similar a la de la caligrafía japonesa, como puede apreciarse en la parte superior de este manuscrito.

La delineación de la forma sienta las bases de todas las artes visuales (incluso la escultura), por lo que el dibujo es una de las ramas más importantes de estudio en las escuelas de arte y arquitectura, así como en las de ingeniería. No obstante, este artículo se refiere al dibujo artístico, en comparación con el dibujo técnico.
2
DIBUJO LIBRE
El dibujo de los objetos visibles consiste esencialmente en el registro de la impresiones recibidas a través de la vista. Sin embargo, dado que no es posible presentar en un plano todos los aspectos visibles de un objeto, el arte del dibujo radica en la sugerencia, estimulando la imaginación del espectador para aportar lo que falta en la representación. La elección sobre qué registrar y qué omitir requiere una sensibilidad visual que se desarrolla con la experiencia. Un apunte es un dibujo que sólo muestra, de forma resumida, los detalles esenciales del objeto representado. En un buen apunte, el artista no sacrifica la aproximación de su impresión visual por conseguir un acabado pulido.
Los diferentes estilos de dibujo se distinguen por las formas en que se superan las limitaciones que impone el material monocromático con el que se trabaja. En los bosquejos, y en algunos apuntes, sólo se representan los contornos, los ángulos sobresalientes o los rasgos del objeto o escena que se representa. El arte chino y el japonés (véase Arte y arquitectura de China; Arte y arquitectura de Japón) constituyen un admirable ejemplo de la fuerza que tiene la línea pura, incluso sin color, para sugerir el más variado modelado de superficies y para recoger los detalles más minuciosos. Por otra parte, las escuelas occidentales han dado mayor importancia a los valores tonales, en la representación de las gradaciones de claro a oscuro. Los artistas europeos han procurado conseguir los efectos deseados por medio de las gradaciones correspondientes en los tonos monocromos del dibujo. Es posible incluso sugerir, o interpretar, diferentes colores por medio del blanco y negro, representando cuidadosamente sus valores aparentes; por ejemplo, un rojo oscuro se indica con un sombreado más oscuro que el que se emplea para sugerir un azul claro o un amarillo. Los grandes artistas del renacimiento están a medio camino entre los exponentes japoneses de la línea pura y los modernos intérpretes occidentales de los valores tonales. Los dibujos de Rafael, Leonardo da Vinci y Miguel Ángel son notables por su pureza, vigor y delicadeza de líneas, así como por la maestría con que representan los volúmenes a través del sombreado.
3
TÉCNICA DE DIBUJO
Rafael
Esta cabeza de mujer, de Rafael, está dibujada a sanguina, procedimiento muy utilizado por los artistas renacentistas para realizar estudios preliminares de los cuadros.

Los principios fundamentales del dibujo son los mismos para cualquiera de los medios empleados. Lo primero que hace el artista es observar el modelo con el que trabaja, que puede ser cualquier cosa, y hacer apuntes de las líneas estructurales dominantes, los contornos y las masas. Incorpora los detalles más importantes y hace las adaptaciones necesarias, dejando para el final los detalles menores. Estas diferentes etapas del dibujo requieren ligereza de trazo y seguridad en la línea.
Las técnicas de dibujo varían según el medio empleado. Durante siglos los dibujos se han hecho sobre muchas clases de superficies, desde paredes de cavernas, objetos de arcilla, yeso, papiros, pergamino, seda, tablas, bloques de piedra y láminas de metal (véase Grabado) y, especialmente, sobre papel de diferentes consistencias y tonos. Los utensilios de dibujo más comunes son el lápiz, la pluma o el pincel, la tinta, el clarión o crayón negro o rojo y el carboncillo. La pluma es el más riguroso de todos ellos, ya que produce una señal indeleble difícil de alterar. Para expresar los colores se utilizan puntos, líneas muy apretadas y sombreado cruzado. Los maestros del dibujo a pluma deben ser maestros de la línea pura. Tanto con el carboncillo, como con el pincel, el artista debe “pintar” sobre el papel, ya que estos medios hacen casi imposible dibujar líneas finas. El lápiz y el clarión requieren el uso de la línea, pero permiten también trazos gruesos y suaves y sombreados difuminados. Se consiguen dibujos muy reales utilizando un papel coloreado, gris o azul pálido, sobre el que se indican los toques de luz con tiza, clarión blanco o con el pigmento llamado blanco de China; las sombras más oscuras y las masas se marcan a lápiz, dejando el tono del papel para representar los valores intermedios. Los grandes maestros del renacimiento desconocían el familiar lápiz de grafito, que es un invento del siglo XVI, y utilizaban a veces un instrumento con punta de plomo o de plata, con el que se conseguía una línea gris claro sobre pergamino o papel grueso, pero lo que más utilizaban era la tiza roja. También se dibujaba con pluma de ave hasta que ésta fue desbancada por la moderna pluma de acero.
4
DIBUJO DE PERSPECTIVA
El dibujo de perspectiva se encuentra entre el dibujo libre o pictórico y el instrumental o mecánico. Pretende representar el aspecto tridimensional real de un objeto desde un punto de vista dado; se refiere menos a la interpretación personal y artística que a la resolución científica. Se presenta el objeto con toda la distorsión angular y el escorzo con que lo percibe el ojo, pero los ángulos, dimensiones, distorsión y escorzo exactos de cada parte se determinan por medio de procesos matemáticos y no por medio de simples impresiones visuales.
Un dibujo de perspectiva, trazado científicamente de este modo en un apunte, puede terminarse con líneas adicionales de color, luz y sombra y con elementos incidentales realizados de una manera pictórica, como en el dibujo libre; entonces pasa de la categoría de dibujo científico a la de artístico. De hecho, ningún artista puede dominar la representación correcta de la forma, en especial de paisajes y arquitecturas, si no ha estudiado la perspectiva; es, en consecuencia, una importante asignatura en todas las escuelas de arte. Resulta indispensable para los pintores de decorados teatrales y constituye la base de los trampantojos. El tratamiento de la perspectiva es muy diferente en los dibujos japoneses; en casi todos los casos se parte de un punto de vista alto, consiguiendo un efecto denominado perspectiva de vista de pájaro.
5
HISTORIA
Los dibujos en las paredes de las cuevas del paleolítico superior, denotan un alto grado de complejidad y demuestran que el arte del dibujo estaba ya desarrollado en la época prehistórica.
5.1
Dibujo prehistórico, antiguo y medieval
Durante el paleolítico superior en África, Asia y Europa se realizaron dibujos realistas de animales, aparentemente con connotaciones religiosas; se tallaban en hueso y se pintaban en las rocas o en el interior de las cuevas, como en Altamira (España) y Lascaux (Francia). Véase Arte paleolítico.
En el antiguo Egipto se utilizaban como modelos para la pintura y la escultura dibujos a tinta sobre papiros y fragmentos de vasijas incisos con figuras y motivos, como ocurría en Mesopotamia con los dibujos tallados en tablillas de arcilla. Estos dibujos, marcados en un principio por la estricta representación frontal y la exageración de las formas, fueron dejando paso a un mayor naturalismo, como en el arte de los reinados de Ajnatón en Egipto y de Assurbanipal en Asiria.
Unos cuantos dibujos preparatorios de origen griego y romano han llegado hasta nosotros, sobre tabla, pergamino, metal, piedra o marfil. Los dibujos terminados, tal como se ven en las vasijas griegas, indican la evolución desde el arcaísmo estilizado a la idealización clásica de la naturaleza, e incluso al tratamiento naturalista de la forma humana. En cuanto al dibujo romano, era en general realista, si bien continuaba mostrando influencias griegas.
En los monasterios de la Europa medieval, los textos religiosos eran inscritos en pergamino, y después embellecidos con iniciales, márgenes decorados y escenas miniadas (véase Manuscritos miniados). En la Europa románica, se utilizaban los dibujos como modelo en la mencionada iluminación de manuscritos y también como cartones o estudios, para frescos, esculturas, y otras modalidades artísticas. Los temas solían ser tratados como símbolos estilizados de principios religiosos. Este punto de vista se transformó en el periodo gótico; el cambio quedó reflejado en los dibujos a punta de plata y a pluma de los artistas flamencos Jan van Eyck y Rogier van der Weyden, que estudiaban la naturaleza buscando la veracidad de su representación.
5.2
Dibujos renacentistas, barrocos y del siglo XVIII
Cabeza de un apóstol
En este dibujo a tinta de la cabeza de un apóstol (1508), probablemente tomado del natural, Alberto Durero delimita el contorno y refleja las texturas a través de las diferencias tonales.

Durante el renacimiento, el redescubrimiento humanista del clasicismo grecorromano, la invención de la imprenta y la gran variedad de papeles y de utensilios disponibles, impulsaron el desarrollo del arte del dibujo. Ya sea como estudios preparatorios para pinturas o esculturas o, por primera vez en Occidente, como obras de arte independientes, las obras maestras del dibujo de los artistas renacentistas revelan comprensión de las formas naturales y su idealización. Entre los dibujos italianos más sobresalientes, realizados a tiza, punta de plata y pluma, se encuentran los dibujos anatómicos y científicos de Leonardo da Vinci y los dibujos de figuras de Miguel Ángel y de Rafael. Los dibujos de Tintoretto y de los manieristas Jacopo da Carucci y El Greco son más expresivos desde el punto de vista personal. Los del artista flamenco El Bosco nos resultan, ahora, parejos a los surrealistas. Un realismo perspicaz caracteriza los dibujos del flamenco Pieter Brueghel el Viejo y de los alemanes Alberto Durero y Hans Holbein el Joven.
Los dibujos del siglo XVII tienden a expresar un dramatismo y una energía de corte barrocos, como denotan las obras a pincel, pluma y aguada de Rembrandt y los retratos a tiza y a clarión del flamenco Petrus Paulus Rubens, en contraste con el apacible orden arquitectónico de algunos estudios a pluma y aguada del francés Nicolas Poussin.
Entre los artistas franceses del siglo XVIII, Antoine Watteau y Jean-Honoré Fragonard realizaron dibujos a pincel y aguada, típicos del estilo rococó, mientras que Pierre Paul Prud’hon dio un enfoque neoclásico a sus estudios de figuras, realizadas con gran fuerza a tiza y carboncillo. Aún es más fuerte el contraste estilístico entre los dibujos discretos y realistas de temas cotidianos realizados por Jean Baptiste Simeon Chardin, y los dibujos de líneas y aguadas, en los que el español Francisco de Goya satirizaba la guerra y la injusticia.
5.3
Dibujos de los siglos XIX y XX
En el huerto
En el huerto (1883) es una litografía de Vincent van Gogh en la que trata el tema de los campesinos pobres, característico de su primera etapa. Aquí se aprecia su particular estilo de trazo corto en el dibujo con el que logra plasmar forma y movimiento.

El creciente ritmo de cambio político y económico de la época moderna quedó reflejado en la gran variedad de estilos artísticos, procedentes sobre todo de París: el neoclasicismo resurgente de las tensas figuras lineales y de los retratos de J. A. D. Ingres competía con el romántico dramatismo tonal de los dibujos de Eugène Delacroix y de Théodore Géricault; Gustave Courbet empleaba tonos sombreados para imponer su realismo agresivo; Honoré Daumier dibujaba numerosas caricaturas satíricas. También rezuman realismo los dibujos de los artistas americanos Gilbert Stuart, George Catlin, John James Audubon, Winslow Homer y Thomas Eakins, y los de los canadienses Paul Kane y Cornelius Krieghoff.
Precedido por los dibujos de matices atmosféricos de los paisajistas ingleses John Constable y J. M. W. Turner, Claude Monet dio origen a un estilo de dibujo que se caracteriza por una textura de línea de factura suelta para definir los objetos como masas borrosas. Vincent van Gogh, con sus trazos paralelos, consiguió un dibujo mucho más abierto que las masas planas de su colega Paul Gauguin. Paul Cézanne establecía los planos estructurales por medio de líneas quebradas. En sus dibujos a carboncillo, Georges Seurat aprovechó al máximo la textura del papel para conseguir ambientes brumosos.
En el siglo XX el cubismo analítico de los dibujos de bodegones y retratos de Pablo Picasso y de Georges Braque desembocó, con el tiempo, en un dibujo constructivista y minimalista más abstracto. El surrealismo francés y el expresionismo abstracto estadounidense inspiraron dibujos más abiertos y espontáneos. También se empezaron a explorar la textura, las escalas y el collage, al tiempo que continuaba el interés por los dibujos de contorno tradicionales. El punto de vista realista queda patente en los dibujos de George Bellows y Edward Hopper, en Estados Unidos, y de los realistas sociales Käthe Kollwitz, en Alemania, y Diego Rivera, José Clemente Orozco y David Alfaro Siqueiros, en México. El dibujo de finales del siglo XX presenta gran variedad y se combina creativamente con las técnicas de imprenta.
5.4
Dibujos no occidentales
En China, Japón y Corea casi no se hace distinción entre las modalidades artísticas del dibujo, la pintura y la caligrafía. Cada ideograma (véase Alfabeto) es a la vez símbolo y dibujo sacados de la naturaleza. Si bien el dibujo más antiguo, que representaba figuras religiosas, muestra líneas uniformes, los paisajes posteriores y otros dibujos profanos incorporan frecuentemente trazos caligráficos que permiten un mayor modelado de la forma. El color está considerado como un simple accesorio decorativo. Los monjes budistas Zen desarrollaron la intuitiva técnica de las ‘salpicaduras de tinta’, de la que uno de sus mayores exponentes fue el artista chino del siglo XIII Mugi Fuchang.
Los artistas islámicos primitivos (véase Arte y arquitectura islámicas) realizaron intrincadas abstracciones florales y geométricas, influidos por la caligrafía árabe y por su religión, que prohibe la representación de seres vivos. Los dibujos posteriores, sobre todo los empleados en la iluminación de los manuscritos persas, representaban escenas figurativas, bajo la influencia de los estilos chinos y del realismo europeo y, a su vez, inspiraron el estilo de dibujo que se hizo en Turquía y en la India durante los siglos XVI y XVII.

Tecnología de vacío




Tecnología de vacío
Tecnología de vacío, procesos y aparatos basados en el principio de que, cuando se reduce la cantidad de gas —por ejemplo, aire— en un recipiente cerrado, las moléculas y átomos que quedan, o cualquier partícula eléctricamente cargada derivada de las mismas, como iones o electrones, pueden moverse más libremente. Esta libertad de movimiento es proporcional a la reducción de la presión del gas.
2
EVOLUCIÓN
Desde finales del siglo XIX se utilizan comúnmente vacíos bajos y medios en aparatos domésticos como termos o aspiradores. La destilación de aceites lubricantes a partir de residuos del petróleo y la extracción del oxígeno atmosférico de las bombillas o focos eléctricos también emplean tecnología de vacío. Antes de la II Guerra Mundial, las técnicas de alto vacío, que logran condiciones de vacío casi perfectas, se utilizaban sobre todo en los laboratorios de investigación, y también en la producción de tubos de vacío. Durante la guerra se perfeccionaron técnicas para recubrir lentes ópticas con capas muy finas de fluoruro de magnesio empleando alto vacío. Este proceso mejoraba la calidad óptica de las lentes al reducir la reflexión de la luz. Las técnicas de alto vacío también se utilizan en la destilación molecular de aceites de pescado para producir concentrado de vitamina A o en la separación electromagnética de uranio 235 del isótopo de uranio más pesado con el que está asociado en la naturaleza.
3
APLICACIONES
Una de las aplicaciones recientes más importantes de la tecnología de vacío es la refrigeración industrial a gran escala. La velocidad de evaporación del agua se acelera en condiciones de vacío, y este proceso se emplea para la desecación por congelación de los alimentos (véase Procesado y conservación de los alimentos). La evaporación de metales en un alto vacío se emplea para recubrir plásticos y otros materiales con el fin de proporcionarles un brillo metálico intenso. Esta técnica surgió a partir del proceso de recubrimiento de lentes. La producción de tubos de televisión aumentó enormemente con la introducción de bombas de alto vacío de gran velocidad. El tratamiento por alto vacío de metales fundidos, colados o sinterizados mejora sus propiedades físicas al eliminar gases y otras impurezas. Los cristales de metales puros empleados en transistores y otros dispositivos electrónicos similares se “cultivan”, o preparan, en hornos de alto vacío. Los transformadores eléctricos y cables de alta tensión se impregnan en el vacío con un material altamente dieléctrico para mejorar su aislamiento (véase Aislante). Las paredes de los recipientes y tuberías que almacenan o transportan oxígeno, nitrógeno o helio líquido, están rodeadas por un alto vacío para obtener el máximo aislamiento térmico. Las bases o sustratos empleados para la fabricación de microcircuitos electrónicos se cubren por bombardeo iónico con materiales refractarios como tántalo o volframio en condiciones de alto vacío.  
La tecnología de vacío es muy importante en la investigación científica y tecnológica. Los aceleradores de partículas dependen de vacíos muy altos para proporcionar a las partículas una trayectoria relativamente libre de gases. Para probar equipos aeroespaciales en condiciones que simulen las del espacio se emplean grandes cámaras de vacío, a veces de miles de metros cúbicos, lo que exige una gran velocidad de bombeo para la extracción de gas. En algunos tipos de análisis químico, en los que el material que se quiere analizar debe hallarse en estado gaseoso o en forma de iones, cargados eléctricamente, es necesario un vacío para alcanzar estas condiciones. Algunos de los instrumentos empleados para estos análisis son el espectrómetro de masas, el microscopio electrónico o los analizadores de fusión en vacío y de resonancia magnética nuclear. Constantemente se descubren nuevas aplicaciones de la tecnología de vacío.
4
FUNCIONAMIENTO DE LOS EQUIPOS
Figura 1: sistema de vacío
Las aplicaciones de la tecnología de vacío van desde la aspiradora doméstica hasta los aceleradores de partículas de alta energía. Un sistema de vacío típico está formado por una cámara de trabajo, bombas de vacío y accesorios. La cámara de trabajo es un recipiente hermético, como una campana de vidrio. Primero, la presión de la cámara de trabajo se reduce desde la presión atmosférica hasta unos 10-4 bares con una bomba mecánica. Después se reduce aún más con una bomba de difusión. Los accesorios incluyen manómetros de vacío, sistemas eléctricos de control y tubos. Se pueden lograr presiones de sólo 10-15 bares empleando bombas de turbina especiales y desviadores criogénicos para impedir que los gases vuelvan a la cámara. Para medir presiones tan bajas son necesarias técnicas especiales.

Un sistema práctico de vacío suele componerse de tres partes: la cámara de trabajo, las bombas de vacío y los equipos accesorios como el control eléctrico o las tuberías. Un sistema de vacío sencillo se muestra en la figura 1. Para que el equipo funcione, la cámara de trabajo, con su manómetro de vacío, está unida de forma hermética al extremo de la bomba. Cuando se cierran las válvulas de alto vacío y de primer vacío y se abre la válvula de presión preliminar, arrancan las bombas mecánica y de difusión. Cuando comienza a funcionar la bomba de difusión, se aísla del resto del sistema cerrando la válvula de presión preliminar. A continuación se vacía la cámara de trabajo, sólo mediante la bomba mecánica. Para ello se cierra la válvula de entrada de aire y se abre la válvula de primer vacío. La presión en la cámara de trabajo se reduce hasta aproximadamente 0,1 milibares (1 bar corresponde a 100.000 pascales y equivale a unos 750 mm de mercurio, algo menos que la presión atmosférica normal). A continuación, la cámara se comunica con la bomba de difusión cerrando la válvula de primer vacío y abriendo posteriormente las válvulas de presión preliminar y alto vacío. En ese momento, la cámara de trabajo está lista para ser sometida al alto vacío. Esta cámara es un recipiente estanco con uno o más puntos de acceso al interior. Para operaciones sencillas se emplea frecuentemente como cámara de trabajo una campana de vidrio protegida por un armazón metálico o una campana de acero. La cámara está dotada de conexiones estancas para accesorios como visores, dispositivos para realizar movimientos mecánicos en el vacío o terminales eléctricos.
Figura 2: bomba de vacío rotativa
Esta bomba rotativa sellada por aceite se emplea para extraer el gas de un recipiente. El gas penetra por la entrada, y un cilindro excéntrico llamado rotor expulsa el gas por la válvula de descarga. La paleta divide el espacio entre la entrada y la salida y reduce el volumen al girar el rotor para comprimir el gas antes de expulsarlo.

Un primer tipo de bomba de vacío era semejante a una máquina de vapor. En la actualidad, esta bomba ha sido sustituida en las aplicaciones de vacío por la bomba rotativa sellada por aceite (figura 2) y la bomba de eyección (figura 3). En la bomba rotativa, un cilindro excéntrico llamado rotor gira dentro de una carcasa cilíndrica hueca. Una paleta de movimiento alternativo montada en la carcasa y en contacto continuo con el rotor actúa como sello entre la entrada y la salida. Todo el interior está lleno de un aceite de sellado con baja presión de vapor. Las bombas de eyección se basan en el principio de que un líquido o gas a presión, al pasar por una tobera formando un chorro, arrastra las moléculas de gas de la cámara de mezcla y las expulsa de ésta, con lo que produce un vacío. Si el fluido en movimiento es agua, el dispositivo se denomina aspirador o condensador barométrico; si es vapor de agua, se denomina eyector de vapor. La bomba de difusión funciona según un principio similar, pero emplea el vapor de un líquido de muy baja presión de vapor, por ejemplo mercurio o fluidos orgánicos especialmente seleccionados. El vapor se recicla condensándolo y volviendo a evaporar el líquido de condensación. Algunos otros tipos de bombas de vacío son los siguientes: las bombas iónicas (empleadas cuando son esenciales condiciones secas libres de vapor), que funcionan ionizando las moléculas de gas y atrapándolas en placas colectoras eléctricamente cargadas; las bombas químico-iónicas, que se basan en la reacción con el gas de los vapores de un metal como el titanio y su posterior condensación en las paredes de la carcasa de la bomba; las bombas de adsorción, que extraen los gases adsorbiéndolos y absorbiéndolos mediante ceolita artificial, el llamado “colador molecular”. El bombeo criogénico se logra condensando gases en superficies mantenidas a temperaturas extremadamente bajas (véase Criogenia).
Figura 3: bomba de eyección
La bomba de eyección es un tipo de bomba de vacío, que extrae el gas de un recipiente haciendo pasar agua o vapor de agua a gran velocidad a través de una cámara conectada con el recipiente. La cámara de mezcla contiene gas del recipiente y agua o vapor de agua. En la entrada, la bomba de eyección se conecta al recipiente en el que se quiere hacer el vacío.

Las bombas, válvulas, secuencias de operación y sistemas de enclavamiento de seguridad para el funcionamiento de la cámara de trabajo se controlan mediante componentes eléctricos situados en la misma máquina o cerca de ella. Los controles pueden ser manuales o automáticos. Frecuentemente se emplean desviadores y separadores en las tuberías de vacío para impedir el desplazamiento no deseado de moléculas desde las bombas hasta la cámara de trabajo o viceversa. Los desviadores pueden funcionar a temperatura ambiente o enfriarse mediante hielo seco o nitrógeno líquido, con lo que las moléculas de gas se condensan en su superficie o son absorbidas por ella. Otros componentes de los sistemas de vacío son las válvulas, las tuberías y las conexiones entre tuberías, diseñadas para impedir la entrada de gas desde el exterior.
5
MEDIDA DEL VACÍO
Los dispositivos empleados para medir las condiciones de vacío se denominan manómetros, e indican la presión absoluta. El manómetro de mercurio mide presiones que van desde la atmosférica hasta 1 milibar aproximadamente. Una variante, el manómetro de McLeod, extiende el rango de medida hasta una millonésima de milibar. Dos manómetros mecánicos cubren el mismo rango que el manómetro de mercurio: uno de ellos funciona con un tubo de Bourdon (tubo curvo que se deforma más o menos según la presión) y el otro con un diafragma. A veces indican el “nivel de vacío” en vez de la presión absoluta. El vacío de tipo medio se mide con manómetros de termopar o manómetros Pirani. Ambos se basan en el principio de que la conductividad térmica de un gas es proporcional al número de moléculas que quedan, es decir, a la presión. Su rango de medidas va aproximadamente de una milésima de milibar a 1 milibar. El manómetro de ionización radiactiva responde entre una milésima de milibar y la presión atmosférica. Los vacíos altos y muy altos se miden a partir de la carga eléctrica de un gas ionizado por bombardeo de electrones. Dos manómetros que emplean este principio son el termoiónico, llamado también de cátodo caliente, y el de descarga luminiscente, o de cátodo frío. El primero cubre un rango que va de 10-4 a 10-14 bares, y el segundo un rango de 10-5 a 10-10 bares. Cuando se entra en la zona de vacíos ultraaltos, la medida se hace cada vez más difícil. Es posible medir presiones de 10-15 bares y menores mediante técnicas de análisis espectrométrico de masas especialmente diseñadas. Todos los manómetros que dependen de la conductividad térmica o la ionización de un gas para la medida de presiones responden de forma distinta según el gas, por lo que suelen calibrarse con aire seco empleando el manómetro de McLeod como referencia.

Entradas populares

Me gusta

Seguidores