Pregunta:
¿Cómo es posible que haya fotos UV mientras nuestros ojos no pueden detectar las ondas UV?
Bored Comedy
2020-02-02 01:07:50 UTC
view on stackexchange narkive permalink

Sé que esta pregunta suena tonta, pero tengan paciencia conmigo.Esta pregunta vino a mi mente mientras miraba las fotos en un libro de astronomía.¿Cómo es posible que se tomen fotos IR y UV de estrellas y nebulosas si nuestros ojos no pueden detectarlas?

"Sé que esta pregunta suena tonta" ¡en absoluto!En todo caso, la pregunta demuestra un nivel de inteligencia superior al promedio: mucha gente ni siquiera pensaría en preguntar ...
Eliminé algunos comentarios que no parecían estar destinados a mejorar la pregunta.
¿Alguna vez has escuchado a alguien tocar una canción en un piano, pero una octava más alta o más baja?Es así, pero con otro tipo de olas.
Un buen libro es Alien Vision de Austin Richards.https://www.amazon.com/Alien-Vision-Exploring-Electromagnetic-Technology/dp/0819441422.Ya es antiguo, pero muestra muy bien lo que se puede ver fuera del espectro visible.
Realmente no es una respuesta a la pregunta, pero podría interesarle que algunos animales, incluidas las mujeres humanas, son [tetracromáticos] (https://en.wikipedia.org/wiki/Tetrachromacy) capaces de ver en el rango UV: https: //www.bbc.com/future/article/20140905-the-women-with-super-human-vision
@JimmyJames No parece que le dé a la gente una visión en el rango de los rayos ultravioleta;todavía parece manifestarse en humanos en el espectro de luz visible.También los rayos UV están aparentemente bloqueados por nuestro cristalino.
@JMac ¿Leíste el artículo?También la wikipedia cita una fuente.No hago las afirmaciones, solo proporciono referencias.Si nuestros ojos bloquean los rayos UV, ¿está diciendo que las gafas de sol que bloquean los rayos UV son una estafa?
@JimmyJames Tampoco desea que los rayos ultravioleta lleguen a sus lentes oculares.Todavía causa daño incluso si la mayoría no llega a su retina y, por lo tanto, realmente no puede verlo.La wikipedia solo habla de que los humanos tienen una visión adicional en el rango _visible_ de ser un tetracromático.Leí el artículo y lo busqué por "UV" o "Ultra" y no obtuve resultados, por lo que tampoco parece hablar de que los humanos tengan visión en el espectro UV.El artículo de wikipedia habla sobre cómo las personas que no son tetracromáticas pueden ver parte del espectro UV si no tienen lentes para los ojos.
@JMac "En 2010, después de veinte años de estudio de mujeres con cuatro tipos de conos (tetracromáticos no funcionales), el neurocientífico Dr. Gabriele Jordan identificó a una mujer (sujeto cDa29) que podía detectar una mayor variedad de colores que los tricromáticos, correspondiendo conun tetracromático funcional (o tetracromático verdadero) ".¿Estoy analizando esto incorrectamente?Parece ser una cobertura bastante, pero el "verdadero tetracromático" parece inequívoco.
@JMac Tienes razón sobre el artículo de la BBC, di un salto allí que no estaba en el texto.Sin embargo, dado que las aves, los peces y los insectos pueden ver en el rango de los rayos ultravioleta, y que los primates reevolucionaron la tricromacia después de que los mamíferos en general la perdieran, parece posible que también podamos reevolucionar la tetracromacia.
Se cree que la tetracromacia de @JimmyJames en humanos significa que pueden diferenciar más colores dentro del espectro visible;no significa que vean los rayos ultravioleta.
@JimmyJames No veo ningún lugar que sugiera que está fuera del rango visible.Parece que los verdaderos tetracromáticos tienen un canal de color adicional _dentro_ del rango visible.Así, por ejemplo, una persona daltónica tiene problemas para distinguir la diferencia entre algunos tonos (los matices dependen de cómo son daltónicos), porque son solo un dicromático.Un tetracromático como ellos describen es capaz de diferenciar mejor los matices que un tricromático;así obtienen una mayor variedad de colores porque tienen 4 intensidades de longitud de onda diferentes para comparar.
@JMac Sí, al releer, parece que tienes razón.Pero es cierto que algunos animales pueden ver en ese rango según lo que he leído allí y en otros lugares.
Puede ver los rayos UV después de que la piel se bronceó (o las cosas se desgastaron).Puede sentir IR desde la dirección de la energía térmica.
Cuál es exactamente la pregunta?¿Cómo es posible fabricar detectores UV?¿Cómo representar la luz ultravioleta en colores visibles?Tengo problemas para entender por qué se confunde el OP.No podemos ver los rayos X, pero obviamente podemos hacer imágenes de rayos X.
El material de la película ("Fotografía analógica") y los sensores de imagen son imperfectos.La película reaccionará a la luz ultravioleta, que no es deseada ya que hará que la imagen sea "borrosa" (además, las lentes no están optimizadas para producir una imagen ultravioleta nítida).De ahí el filtro del tragaluz, que bloqueará los rayos UV.Un sensor de imagen reaccionará a los rayos infrarrojos, con una "falta de naturalidad" similar en las imágenes.Sin embargo, eso puede haber tenido una ventaja: las cámaras de vigilancia iluminarán la escena con infrarrojos por la noche, algo imperceptible para los humanos.A menos que vea la escena a través de la cámara de su teléfono móvil;verá claramente la ubicación de dichas fuentes de infrarrojos.
Ocho respuestas:
Superfast Jellyfish
2020-02-02 01:33:59 UTC
view on stackexchange narkive permalink

Las imágenes se toman con cámaras UV / IR.Pero las frecuencias se asignan hacia abajo / hacia arriba a la región visible utilizando algún esquema.Si desea conservar las proporciones de frecuencias, haga una escala lineal.Generalmente, la escala se realiza para lograr un equilibrio entre la estética y la informatividad.

A la luz de la abrumadora atención a esta pregunta, he decidido agregar la imagen reciente de un agujero negro tomada por el Event Horizon Telescope.Esta imagen fue capturada en ondas de radio por una serie de radiotelescopios en ocho lugares diferentes de la tierra.Y los datos se combinaron y representaron de la siguiente manera.

enter image description here

Un punto que olvidé mencionar y que fue señalado por @thegreatemu en los comentarios a continuación es que todos los datos de la imagen del agujero negro se recopilaron en una sola longitud de onda de radio (de $ 1.3 $ mm).El color de esta imagen significa la intensidad de la onda de radio.Más brillante implica una señal más brillante.

Tal vez una analogía con la música lo haga más comprensible para un profano: no soy músico, pero recuerdo a un maestro mío tocando canciones una octava más baja de lo que normalmente se tocaban las canciones. Para una especie que no puede oírla octava más alta sería una representación de la canción original, al igual que la imagen proporcionada es una representación de los datos originales.Ambas representaciones contienen esencialmente la misma información.
Tenga en cuenta que la vista y el oído son sentidos muy diferentes.En sonido, somos muy sensibles al espectro, pero solo tenemos una capacidad mínima de resolución espacial.A la vista, somos muy sensibles a la variación espacial, pero el espectro está triturado en un color tricromático.
Si bien son sentidos diferentes, la analogía se conserva.
Esta es una buena información, pero engañosa en la mayoría de los casos.Por lo general, la información de frecuencia NO se conserva, como es el caso en la figura del ejemplo.Los colores presentados son un llamado mapa de calor, donde la INTENSIDAD en ese píxel se asigna a un color.Los píxeles "más calientes" (es decir, más blancos) recibieron más radio promediado en todo el espectro.Ocasionalmente verá diferentes bandas de frecuencia asignadas a intensidades RGB por separado, pero esto es raro.
En cada artículo que leí sobre ese tema, parecía que el periodista tenía la impresión de que se trataba de una fotografía óptica real de algún tipo en lugar de una visualización.Puede visualizar muchas cosas como una pseudo-fotografía: cobertura de radio de teléfono celular o algo que no sea electromagnético en absoluto, como niveles de ruido o contaminación.
@TheoreticalMinimum En el caso de la luz, el ultravioleta sería (más exactamente dicho como) jugando una octava _ más alta_ (ya que el UV tiene una longitud de onda más corta y, por tanto, una frecuencia de onda más alta).
@thegreatemu Se llama mapa porque los geógrafos hacen mapas de esta manera.La altitud, por ejemplo, es una altura sobre el nivel del mar, pero a menudo se representa con colores en un mapa.En éste es la intensidad o "brillo", de radiación de una frecuencia que no podemos ver directamente a simple vista.
@nigel222 derecha.Mi punto fue que el mapa es "intensidad-> color" NO "frecuencia-> color", y que en la práctica los mapas de "frecuencia-> color" son casi inexistentes
niels nielsen
2020-02-02 02:18:49 UTC
view on stackexchange narkive permalink

cuando está mirando una foto UV o IR, las intensidades de estos rayos (invisibles) están representadas por diferentes colores (visibles) y brillos en la foto.Esta técnica de convertir cosas que nuestros ojos no pueden ver en imágenes que podemos ver es común, y las imágenes así preparadas se denominan imágenes en falso color .

TL; DR: todas las respuestas: 'Las cámaras UV / IR toman imágenes en escala de grises y las imágenes así preparadas se denominan * imágenes en falso color *.Las frecuencias se mapean hacia abajo / hacia arriba a la región visible utilizando algún esquema '.
@Mazura no es necesario escala de grises, los sensores UV / IR pueden capturar la intensidad de la luz en múltiples longitudes de onda en el espectro UV o IR que luego se puede cambiar artificialmente al espectro visible.
@zakinster en principio sí, pero en la práctica esto casi nunca se hace.Su monitor tiene solo tres colores, por lo que, en el mejor de los casos, puede asignar la intensidad promedio en 3 bandas diferentes a RGB
¿Por qué detenerse ahí?Puede asignar cualquier tipo de frecuencia de onda a colores, lo que significa que puede ver (una representación de imagen de) sonidos, ondas WiFi de presión barométrica, etc.
@thegreatemu En realidad, a menudo hacemos imágenes RGB utilizando más de un color no visible.Un ejemplo se ve en [Hayes et al.(2013)] (https://arxiv.org/abs/1303.0006), donde Hα, UV lejano y Lyα (que también está en el UV) se asignan a R, G y B, respectivamente.
The_Sympathizer
2020-02-02 12:20:34 UTC
view on stackexchange narkive permalink

Porque puedes construir una cámara que pueda hacerlo.

La sensibilidad de una cámara no está determinada por los ojos humanos, sino por la construcción del sensor de la cámara. Dado que en las aplicaciones más comunes queremos que la cámara capture algo que imite lo que ven nuestros ojos, generalmente las construimos para que sean igualmente sensibles a aproximadamente las mismas frecuencias de luz a las que nuestros ojos son sensibles.

Sin embargo, no hay nada que le impida construir una cámara que sea sensible a un espectro de frecuencia diferente, y así lo hacemos. No solo los rayos X ultravioleta, sino también los infrarrojos, y más son objetivos posibles.

Si estás preguntando por qué las imágenes son visibles, bueno, es porque necesitamos verlas con nuestros ojos, así que las pintamos usando pigmentos visibles o las mostramos en pantallas que emiten luz visible. Sin embargo, esto no hace que las imágenes sean "incorrectas": en el nivel básico, tanto las imágenes de luz visible como las de UV / IR tomadas con cámaras modernas son lo mismo: largas cadenas de bits binarios, no "colores". Toman interpretación para hacernos útiles.

Por lo general, las cámaras UV / IR toman imágenes en escala de grises, porque no hay "colores" sensibles para asignar las diferentes frecuencias, o mejor, el "color" es solo una cosa inventada que proviene de nuestro cerebro y no es una propiedad de luz. Por lo tanto, colorear todas las luces "invisibles" en gris no es "incorrecto" más que cualquier otra cosa, y es más fácil construir los sensores (lo que significa "más barato"), porque la forma en que se hace una cámara que discrimina el color es efectivamente la misma que la la forma en que están hechos sus ojos: tiene elementos subpíxeles que son sensibles a diferentes rangos de frecuencia.

Incluso puede construir "cámaras" que no utilicen radiación electromagnética en absoluto, por ejemplo, microscopios de ultrasonido o de electrones.
Muchas cámaras normales pueden detectar algo de infrarrojos y, por lo general, lo muestran como un color rosa o violeta.Para ver esto, apunte la cámara de su teléfono al final de un control remoto de TV.
@Jeanne Pindar: La mayoría de las cámaras digitales (incluidas las de los teléfonos) tienen un filtro que bloquea gran parte del infrarrojo.Es posible eliminar esos filtros y tomar fotos infrarrojas interesantes: una búsqueda en la web de "conversión digital infrarroja" arrojará muchos resultados.También se puede hacer con rayos UV, aunque es más complicado.
@Jeanne Pindar: Sí, de hecho.Por lo tanto, puede usar su cámara digital, aunque debe modificarla quitando y reemplazando el filtro, porque incluyen uno para evitar que "contamine" la imagen visible, para filmar desde aproximadamente 750-1100 nm (más sensible a 750,al menos al 1100), sin embargo no habrá (creo, al menos) discriminación de color por frecuencia / longitud de onda.
@jamesqf El truco de la "cámara del teléfono" funcionó bien con las primeras cámaras de los teléfonos;la idea persistió a pesar de que realmente ya no funciona: D
Funciona con todos los teléfonos con los que lo he probado, incluido un LG G7 ThinQ al que no llamaría un teléfono anterior, creo que salió en 2017.
@Luaan: Realmente no sé acerca de las cámaras de los teléfonos, ya que nunca consideré que valiera la pena desarmar un teléfono que funcionara para probar.De hecho, solo lo he hecho yo mismo con una cámara digital de 10 a 15 años.
@The_Sympathizer - Recuerdo el escándalo de la cámara digital Fujifilm que era sensible al infrarrojo que podía "ver a través" de la ropa.Resulta que la mayoría de las telas son transparentes a los infrarrojos.
¡OK, las cámaras de las que estoy hablando no son TAN sensibles!El IR que he podido fotografiar ha sido de leds, elementos calefactores, llamas y luz solar reflejada o refractada.
¡Maldición!Lástima que mi vieja cámara Fujifilm esté rota :(. De todos modos, ¿recuerdas el suicidio en masa de la Puerta del Cielo y el "Objeto similar a Saturno" que lo desencadenó? Recuerdo vagamente que el astrofotógrafo se había quitado (o no tenía) un filtro de infrarrojos.en la cámara que usó y produjo una imagen sobreexpuesta en IR.
mmesser314
2020-02-02 02:42:12 UTC
view on stackexchange narkive permalink

Piense en hacer brillar un haz de infrarrojos intenso sobre la madera.La madera está chamuscada.Puede ver el chamuscado con luz visible, aunque el rayo infrarrojo no sea visible.Hágalo de nuevo, pero coloque un poco de metal en el camino para bloquear parte de la viga.Ahora puedes ver la sombra del metal.

Esto es muy parecido a cómo la película de rayos X muestra los huesos.

La cámara es similar.Cuando los sensores de la cámara son estimulados por rayos UV / IR / X, producen una señal eléctrica.Estas señales se almacenan como píxeles en una imagen.Puede mostrar la imagen en un monitor y elegir que los píxeles sean del color que desee.

En realidad, no haga este experimento en caso de que accidentalmente refleje el rayo infrarrojo en sus ojos con el metal.
user2723984
2020-02-02 19:41:37 UTC
view on stackexchange narkive permalink

Imagine escribir un programa que escuche sonidos a través del micrófono de su computadora y pinte la pantalla de un color diferente para cada nota (o frecuencia) diferente.De repente, puedes apuntar a alguien que canta y "ver" el sonido.Incluso puede mostrárselo a una persona sorda, y ellos pueden tener una idea de qué tipo de canción están viendo a través de los colores que ven.Ninguno de sus sentidos puede capturar el sonido, pero lo ven en la pantalla, porque lo que captura el sonido es el micrófono.

Una cámara ultravioleta es prácticamente lo mismo.Un sensor captura algo de luz que sus ojos no pueden y un programa pinta la pantalla de un color diferente para cada frecuencia UV que no puede ver.

Peter Green
2020-02-03 08:51:43 UTC
view on stackexchange narkive permalink

Una cámara no almacena luz. La luz que ves cuando miras una foto no es la misma que la luz que se capturó cuando se tomó la foto.

Cuando la luz entra en una cámara digital, desencadena cambios eléctricos en el sensor de imagen, que un ADC convierte en datos digitales. En una cámara de película, la luz provoca cambios químicos en la emulsión de la película que se retienen hasta que se revela la película.

Los humanos somos básicamente tricromáticos. Tenemos tres tipos diferentes de "conos" en nuestros ojos con diferentes respuestas a la luz. Por lo tanto, podemos representar el color con tres números por píxel en un sistema de imágenes digitales o tres capas en una película química.

Algún tiempo después, reconstruimos una imagen para que la vea una persona. En una cámara digital simplista, tomaríamos los valores de rojo, verde y azul para cada píxel y los usaríamos para iluminar los píxeles rojos, verdes y azules en nuestra pantalla. En realidad, suele haber algún ajuste involucrado, porque los filtros de la cámara no representan con precisión el ojo humano y porque las bandas de frecuencia se superponen, por lo que no es posible encontrar "colores primarios" que activen un solo cono.

Las cámaras digitales normales están diseñadas para aproximarse a nuestros ojos, porque eso es lo que la mayoría de la gente quiere. Pero no hay ninguna razón fundamental por la que las cámaras tengan que ser así. Siempre que podamos construir una lente para enfocar los rayos y un sensor que responda a ellos, podemos capturar una imagen.

Es posible construir una cámara para que funcione con múltiples bandas de ondas al mismo tiempo, y así es como funcionan las cámaras normales, pero no es una gran opción para la obtención de imágenes científicas por algunas razones. En primer lugar, el "filtro bayer" tiene que estar básicamente impreso en el sensor, lo que significa que no se puede cambiar. En segundo lugar, significa que sus píxeles para diferentes bandas de ondas tienen ubicaciones espaciales ligeramente diferentes.

Entonces, para las bandas de ondas oscuras, una solución más común es capturar una banda de ondas a la vez, las imágenes se pueden combinar en una sola imagen multicanal después de la captura.O solo se puede capturar una imagen monocromática, todo depende del objetivo de la imagen.

Por supuesto, los humanos todavía podemos ver solo la luz visible y solo podemos verla de forma tricromática, por lo que en algún momento el creador de una imagen tiene que hacer un juicio sobre cómo mapear los datos de la imagen científica (que puede tener un arbitrarionúmero de canales) a una imagen RGB (que tiene exactamente 3 canales) para su visualización.Tenga en cuenta que el color en la imagen final no implica necesariamente que haya varios canales en los datos de la imagen original, no es raro utilizar un proceso de mapeo que mapea una entrada de un solo canal a una salida de color.

Además, con chips de imágenes multibanda (p. Ej., RGB), la sensibilidad es menor porque los sensores individuales (de la tríada en cada píxel) son más pequeños y la resolución es menor porque el píxel se distribuye en tres subsensores.Un generador de imágenes en escala de grises (monocromático) será más sensible a la poca luz y tendrá una mejor resolución, pero si coloca filtros al frente para pasar un color a la vez, se perderá los cambios con el tiempo (solo una banda ense puede registrar un tiempo).
Bob Jarvis - Reinstate Monica
2020-02-04 05:52:30 UTC
view on stackexchange narkive permalink

Sigamos con tu lógica.Está planteando que no puede pasar nada que nuestros cuerpos no puedan hacer.De acuerdo:

  1. ¿Cómo puede un automóvil conducir a más de 200 millas por hora si no podemos correr tan rápido?

  2. ¿Cómo puede volar un avión si nosotros no podemos?

  3. ¿Cómo puede un submarino pasar semanas bajo el agua si no podemos permanecer bajo el agua (y vivos :-) tanto tiempo?

La respuesta es que las máquinas que construimos pueden hacer cosas que no podemos hacer sin su ayuda.Construimos estas máquinas para expandir nuestras capacidades.

Las cámaras son una máquina que puede hacer cosas, como responder a la radiación en el rango ultravioleta e infrarrojo del espectro, lo que nuestros ojos no pueden.

Si bien esto responde a la pregunta a un nivel filosófico, dudo que sea el tipo de respuesta que sería útil para la persona que la pregunta aquí.
Goran Bojanic
2020-02-04 17:37:55 UTC
view on stackexchange narkive permalink

Respuesta a la pregunta: ¿Cómo es posible que haya fotos UV mientras nuestros ojos no pueden detectar las ondas UV? Estamos hechos, principalmente por agua, y el agua tiene un coeficiente de absorción de "ventana óptica", que significa uno enorme en los extremos de la ventana (infrarrojos y ultravioleta) y bajo en la longitud de onda verde.Así que esta es la razón de nuestra sensibilidad por el verde.

No está claro cómo esto responde a la pregunta del OP.


Esta pregunta y respuesta fue traducida automáticamente del idioma inglés.El contenido original está disponible en stackexchange, a quien agradecemos la licencia cc by-sa 4.0 bajo la que se distribuye.
Loading...