domingo, 23 de febreiro de 2014

Materia subatómica



"O Paradoxo de Fermi" é a contradición de que a pesar de que existen teorías que aseguran que hai máis vida intelixente no universo, o ser humano nunca tivo contacto con intelixencia extraterrestre.

Para algúns investigadores, esta falla débese a un reflexo da forma na que buscamos, proxectando os nosos propios paradigmas existenciais. Para Hugo de Garis, investigador de intelixencia artificial, antigas civilizacións extraterrestres poderían ter aproveitado os poderes computacionais da materia subatómica diseminándose nos elementos para formar unha complexa rede de tecnoloxía vivente, a menor escala e moito máis eficiente que a colonización de planetas con aparatosas naves espaciais.

De Garis fala sobre o seu X-Tech (tecnoloxía extraterrestre atómica), que prové unha posible solución ao Paradoxo de Fermi.Tal vez non están a vivir fóra noutros planetas, senón que existen ao interior dos átomos e as partículas. Talvez deberiamos de estar a buscar dentro das partículas elementais xa que estas criaturas activadas a estas escalas diminutas operarían moito máis rápido, con maior densidade e con niveis de desempeño superiores. Talvez necesitamos cambiar de paradigma, do espazo exterior ao espazo interior, de SETI a SIPI ( the Search for Infra Particle Intelligence).

As hiperinteligencias que teñen miles de millóns de anos máis ca nós no noso universo (que é unhas tres veces máis vello que o noso sol), probablemente se reduciron para alcanzar maiores niveis de performance. Civilizacións enteiras poderían estar a vivir dentro de volumes do tamaño dun nucleón ou máis pequenos.

Sen embrago, algo que non menciona De Garis é a posibilidade de que estas intelixencias extraterrestres tamén se diseminasen a través de microorganismos como virus e bacterias. Isto, especialmente considerando que é sumamente posible que a vida iniciase no noso planeta a través de microorganismos provenientes das estrelas.
Por que non pensar que unha civilización extraterrestre se inseminase a si mesma en nós? Que mellor forma de controlar que dende dentro? Resulta desaforado, pero non completamente implausible, pensar que existe unha rede de intelixencia bacterial ou viral que computa información de xeito distribuído, un paso máis alá da "mente global" prehumana das bacterias que esboza Howard Bloom.

O KM3NeT


A decisión sobre a futura situación do telescopio de neutrinos máis grande do mundo toma estes días nunha reunión en Vilanova i a Geltrú (Barcelona). Será nunha reunión con máis dun centenar de científicos de todo o mundo auspiciada pola Universidade Politécnica de Cataluña (UPC).

Este telescopio, denominado proxecto KM3NeT e en cuxa construción participará a UPC, servirá para estudar o Universo dende o fondo mariño, ver o impacto da contaminación acústica no mar, así como fenómenos astronómicos e de física de partículas.

Os científicos, que permanecen en Vilanova ata o próximo venres, teñen previsto analizar cual será a mellor situación para este gran telescopio, que será a segunda infraestrutura máis grande realizada ata agora despois da gran muralla chinesa, e superará en altura o Burj Khalifa de Dubai -o edificio máis alto do mundo-, pero mergullado centenares de metros no fondo do mar.

Captación de neutrinos



Segundo explicou a UPC, este tipo de telescopios permiten capturar neutrinos, unhas partículas subatómicas que non teñen practicamente masa, electricamente neutrais.

Os neutrinos emítense durante unha desintegración radiactiva e poden achegar valiosa información dos fenómenos astrofísicos onde se producen, como as explosións de estrelas ou supernovas, os buratos negros, os centros activos de galaxias e outros fenómenos extremos do Universo.

O obxectivo destes instrumentos é localizar neutrinos e descifrar as súas características e para iso hai que detectar a chamada radiación de Cerenkov, que é o rastro que deixan as partículas cargadas de neutrinos cando entran na atmosfera terrestre.

Este feito pódese ver mellor dende o fondo do mar, onde non hai contaminación lumínica e para detectalo se dispoñen tubos fotomultiplicadores que captan as pequenos sinais de luz e transfórmana nun sinal eléctrico.


Estes tubos e os seus fotodetectores son os verdadeiros "ollos" do KM3NeT, que miran cara ao fondo do mar para estudar os fenómenos astronómicos.

Óptica futura


O futuro KM3NeT (siglas procedentes de Km3 Neutrino Telescope) será dun tamaño cincuenta veces superior ao do seu predecesor, o ANTARES (Astronomy with a Neutrino Telescope and Abyss Environmental Research).

Durante os últimos 15 anos, o antecesor do KM3NeT recolleu datos astronómicos dende 2.500 metros de profundidade do Mediterráneo, preto da costa da Provenza (Francia). Precisamente, no encontro científico que se iniciou en Barcelona tamén avaliaranse os resultados obtidos por este telescopio.
                           


                                    

 Seguindo o modelo do ANTARES, o KM3NeT estará formado por unha reixa tridimensional de fotodetectores de alta sensibilidade fixados en cables, que, dende o fondo do mar, se elevarán centos de metros en dirección á superficie, formando un gran cilindro.

A UPC proporcionará a tecnoloxía para revelar o comportamento diario dos organismos mariños das augas máis profundas e a influencia do ruído e contribuirá a detectar a pequena carga acústica que produce o neutrino ao impactar na auga do mar.

De España, ademais do LAB da UPC, tamén participa o Instituto de Física Corpuscular (IFIC), un centro mixto do Consello Superior de Investigacións Científicas (CSIC e da Universidade de Valencia), que coordina a participación científica española. Tamén participa un grupo de investigación da Universidade Politécnica de Valencia.

Enerxía solar


Posiblemente encontrémonos ante a solución definitiva ao xeito de aproveitar a enerxía solar para transformala en electricidade. Esta curiosa estrutura parece estar recén sacada dunha película de ambiente futurista pero trátase dun xerador de enerxía solar autónomo. André Broessel foi o autor deste curioso deseño.

Tras ser analizado e tido sido estudado, esta disposición de paneis fotovoltaicos en esfera son un 35% máis eficientes que os tradicionais, e moito máis cando se lle adapta un modelo de seguimento do Sol para non desaproveitar nin un só raio de luz. O principal motivo polo que Broessel decidiu crear esta grande orbe de cristal non foi outro que xustificar que é a Terra quen se move arredor do Sol e non ao revés, como parecen funcionar os paneis solares tradicionais, que ao ser fixos non son tan eficientes.

Esta esfera actúa como unha especie de lente capaz de enfocar toda a luz captada pola superficie desta a un mesmo punto, aumentando a súa sostibilidade e eficiencia. Á súa vez, leva incorporado un sistema de rastrexo intelixente co que detectar onde se encontra a maior cantidade de luz en condicións meteorolóxicas adversas.
Outra baza a favor deste invento é que é máis respectuoso co medio, en canto aos materiais dos que está construído. Por outro lado, este non é máis que un proxecto base do que se pode chegar a mellorar neste tipo de proxectos de aproveitamento de enerxías renovables.

Como non podía ser doutro xeito, trátase dun novo proxecto de crowdfunding polo que o seu deseñador necesita recadar 120.000 dólares para sacar esta orbe de cristal ao mercado.

Minería espacial




A axencia espacial, de feito, xa está a operar con privados para levar provisións á Estación Espacial Internacional nunha alianza que funcionou ben e que se está a facer cada vez máis necesaria para a axencia, cuxo presuposto se viu reducido.

Os robots de exploración expacial iranse incrementando no presente século
Espérase que unha ou dúas compañías obteñan contratos para construír robots de exploración, o que sería o primeiro paso para facer minaría no satélite natural da Terra. O contrato non implicará un financiamento de parte do goberno de EUA, aínda que o proxecto recibirá apoio da NASA.

Non obstante, segundo un tratado da ONU de 1967, os países non poden reclamar terreos na Lúa, polo que a posibilidade de explotar os seus recursos por parte de empresas privadas espertou unha vez máis o debate sobre os dereitos de propiedade en terreo extraterrestre. De prosperar a intención da NASA, podería levar a modificar o tratado, ou crear solucións alternativas que permitan explotar os recursos da Lúa.




Nova tecnoloxía

IBM anunciou que deu un novo paso en incorporar grafeno á electrónica moderna. Desenvolveu un chip que, aínda que está fabricado principalmente por silicio, utiliza o material a base de carbono para construír os transistores.
Segundo a compañía, o grande avance desta nova tecnoloxía é que permite integrar ambos os dous materiais -silicio e carbono- nun único chip, e sen cambiar demasiado os procesos industriais convencionais. Neste caso desenvolveron un circuíto que converte un sinal de radiofrecuencia analóxica en dixital.






A tecnoloxía desenvolvida por IBM pode permitir substituír algúns compoñentes dos circuítos por grafeno, e mellorar as súas capacidades no proceso, xa que é mellor condutor que o silicio. Ademais, permite implantalo sen degradar ou alterar o resto do circuíto.
Aínda que aínda non está listo para o seu uso comercial, a técnica de IBM podería permitir o desenvolvemento de chips de telecomunicacións de alta capacidade. Teléfonos móbiles, conexións de rede ou mesmo radares.
Para conseguir isto os enxeñeiros de IBM -que traballan dentro dun proxecto para a Axencia de Proxectos Avanzados de Defensa de EUA (DARPA)- colocan unha película de grafeno como a capa superior do circuíto completo mediante unha especie de forno que permite realizar a deposición.
IBM xa creara unha tecnoloxía parecida, e presentouna en 2011. Segundo os propios investigadores neste tempo conseguiron mellorar a velocidade do seu chip 10.000 veces.

A fusión nuclear


O logro da fusión nuclear por confinamento é unha boa noticia. Serao máis cando se materialice en reactores comerciais de fusión. Na técnica de confinamento empréganse láseres de elevada potencia que inciden sobre unha pequena mostra de material logrando as condicións de elevada presión e temperatura, propias dos partes máis internas dos estrelas, e forzar así as unións entre átomos. Non obstante, a que non dá despegado é a fusión por confinamento magnético, na que se empregan potentes campos magnéticos para reproducir no seu interior as condicións para a fusión con liberación neta de enerxía. Os reactores nucleares que perviven son os de fisión. Sería bo para a produción de enerxía limpa que os reactores nucleares de fusión ocupasen o seu lugar a medida que se vaian apagando.

Fusión nuclear: gran paso científico en California

Magnetismo solar



A semana pasada unha violenta erupción de masa coronal do Sol enviou ondas electromagnéticas á Terra. O ministerio de Saúde de Rusia recomendou cambios nos tratamentos de saúde durante as tormentas xeomagnéticas e tormentas de radiación solar.
Vladimir Tyurin, terapeuta con especialidade de medicina familiar fixo algunhas recomendacións para as persoas maiores e aquelas que están a ser tratadas por enfermidades cardíacas.

"Durante as tormentas magnéticas en primeiro lugar deben protexer as persoas que sofren de hipertensión e enfermidade coronaria, é dicir, a protección os pacientes con enfermidade cardíaca", dixo o venres pasado á axencia Interfax.

A semana pasado unha violenta erupción de masa coronal do Sol enviou ondas electromagnéticas á Terra (raios X, ondas de raio, ondas ultravioleta, protóns). Temeuse ademais que desencadease unha forte tormenta xeomagnética na Terra, afectando principalmente a poboacións en latitudes máis altas.

Algo usual no ciclo de actividade solar. Cada 11 anos, a nosa estrela pasa por períodos máis activos. O actual período de Máximo Solar, foi considerado por científicos como o máis débil, segundo a Nasa, nas súas noticias de 2013.

Segundo Tyurin, nos días afectados por ondas xeomagnéticas, as persoas cos riscos cardiopáticos necesitan controlar o seu nivel da presión arterial, xa que pode diminuír, así como aumentar.




"É necesario realizar axustes na medicación que os pacientes están a tomar: a baixa presión é mellor saltar, e á levada, pola contra, aumentar a dose. Menos actividade física e máis descanso", sinalou Tyurin. Todo isto de acordo ao establecido polo médico que está a tratar ao paciente.

O representante do ministerio de Saúde, advertiu que o aumento da actividade física durante as tormentas magnéticas poden causar un aumento da frecuencia de ataques de anxina en persoas susceptibles enfermidades cardíacas.


"Se unha persoa sofre da enfermidade coronaria e ten antecedentes de ataques ao corazón, e conduce un coche, durante as tormentas magnéticas é mellor que deixe de conducir, xa que é unha carga adicional para o sistema cardiovascular: axitación, ansiedade," dixo.

Futuro cercano


Un debilitamento do 15 por cento en tan só 200 anos
"O impacto podería estar xa a ser desvastador para a humanidade, cambiando radicalmente o clima do planeta e o aumento das taxas de cancro", sentenciou o profesor Richard Holme, condutor do equipo que realizou o estudo na Universidade de Liverpool, e que publica o Daily Mail.

O traballo podería verse avalado en breve polos resultados primarios da misión "Swam", un trío de naves espaciais lanzadas á órbita terrestre para que estuden as formas en que está a cambiar o magnetismo da Terra.


Se ben haberá que esperar eses resultados, os científicos realizan proxeccións matemáticas en función dos parámetros que xa coñecen con resultados nada prometedores: se o campo magnético segue diminuíndo -afirman- a Terra podería rematar como o planeta Marte, que no seu momento tivo mares e terras diferenciadas pero concluíu sendo totalmente árido e dunha sequidade tal que a vida se fixo insostible. Se é que a houbo algunha vez.

Magnetismo



Estudos da Universidade de Liverpool (Inglaterra), afirman que os cambios no campo magnético terrestre están a ter consecuencias fulminantes sobre a poboación e o clima no mundo.

A magnetósfera regula o comportamento das partículas cargadas no espazo preto da Terra e proteje noso planeta do vento solar.
A magnetósfera é un campo de miles de quilómetros sobre as nosas cabezas, que en primeiro lugar nos protexe das radiacións e tormentas solares, pero ademais ten forte incidencia no clima en xeral.

En tal sentido, a importancia da magnetósfera, é cada vez máis destacada: actualmente algúns sectores da ciencia cren que o quentamento global está máis relacionado co campo magnético que coas emisións de CO2.


O debilitamento da capa xeomagnética aumenta a exposición dos seres terrestres á radiación cósmica, o cal sería unha das causas do aumento das enfermidades oncológicas no planeta. A radiación podería estar a ser ata cinco veces máis por esta causa que polos buratos na capa de ozono provocados polo home, afirman algúns científicos.

Campo magnéttico



A comprensión da rexión do espazo interestelar a través do cal o sistema solar viaxa non é tarefa doada. O espazo interestelar empeza máis alá da heliosfera: a burbulla de partículas cargadas que rodea o sol, e que chega moito máis alá dos planetas exteriores. Voyager 1 cruzou este espazo, pero é difícil obter unha imaxe global e completa das medicións nunha soa dirección.

Os datos de naves espaciais próximas na Terra nos últimos cinco anos e as observacións de raios cósmicos pintaron unha imaxe mellor do sistema magnético que nos rodea, mentres que ao mesmo tempo formulan novos interrogantes. Os científicos están a desafiar a nosa comprensión actual nun novo estudo que combina as observacións das partículas de raios cósmicos enerxéticos que flúen masivamente pola Vía Láctea xunto coas observacións de da misión Explorador da Fronteira Interestelar da NASA (IBEX).

Os conxuntos de datos mostran un campo magnético que é case perpendicular ao movemento do noso sistema solar a través da galaxia. Ademais de botar luz sobre a nosa veciñanza cósmica, os resultados ofrecen unha explicación para un misterio de décadas de antigüidade sobre por que medimos máis raios entrantes de alta enerxía cósmica nun lado do sol que no outro. A investigación aparece en Science Express.

De acordo co estudo, o resultado é un modelo dos campos magnéticos interestelares - que doutro modo serían rectos - deformándose arredor do exterior da nosa heliosfera. A frecha vermella (que se mostra na imaxe adxunta-- indica a dirección na que o sistema solar se move a través da galaxia.

Electróns


Un equipo liderado por investigadores do Instituto Max Planck para a Física de Microestruturas, en Alemaña, desenvolveu un novo xeito de medir a emisión de pares de electróns directamente mediante a combinación de dous instrumentos de laboratorio comúns chamados espectrómetros de tempo de voo, como describen os expertos na revista 'Applied Physics Letters'.

Ao disparar un raio de luz ou partículas en certos materiais especiais pódense liberar pares de electróns, un fenómeno coñecido como "emisión de pares de electróns", que pode revelar as propiedades fundamentais dos sólidos e información necesaria para deseñar novos materiais para aplicacións futuras.

Medir as emisións de pares de electróns sempre foi difícil porque tradicionalmente se facía utilizando fontes de luz sincrotrón altamente custosas, dispoñibles nuns poucos laboratorios de todo o mundo. Ninguén encontrou un xeito de medir rutineiramente interaccións de pares de electróns sobre unha mesa de laboratorio estándar.

"Einstein recibiu o Premio Nobel pola súa explicación do efecto fotoeléctrico, que foi publicado en 1905. Einstein considerou a posibilidade de que a enerxía do fotón poida ser transferida a máis dun electrón", destaca Michael Huth, investigador postdoutoral no Instituto Max Planck de Física de Microestructuras. "A existencia deste proceso proporciona acceso directo á forza de correlación de electróns", agrega.  

Un par de electróns está "alborotados" por un só fotón dende un punto de vista experimental, o que require da combinación dunha fonte de luz axeitada e espectrómetros de electróns. Desarrolarunha configuración así implica un "esforzo significativo", segundoHuth, quen explica que o equipo alcumou a súa configuración da cámara de fotoemisión "Hydra" porque os seus dous espectrómetros de tempo de voo dotan a cámara dunha aparencia de múltiples cabezas.

O equipo investigou o óxido de níquel (NiO), que, en teoría, debe ter fortes efectos de correlación electrónica. Mentres medían a distribución de enerxía, os científicos sorprendéronse ao descubrir que, en contraste co metal, a suma da enerxía do par de electróns non mostra trazos prominentes.

"Observamos que os metais e o óxido de níquel se comportan de xeito moi diferente -destaca Huth--. Isto implica que a nosa técnica permite cuantificar a intensidade de correlación electrónica". A cuantificación da forza de correlación de electróns dun material de estado sólido é importante porque permite aos investigadores caracterizar as súas propiedades útiles, incluíndo a supercondutividade e a transición metal-illante, por exemplo.

Traballos no acelerador de partículas


Durante dous meses uns 170.000 millóns de electróns interactuar cos quarks a través tanto da forza débil como a electromagnética e os datos rexistráronse de forma independente en dous espectrómetros de alta resolución.
O equipo encontrou unha asimetría ou diferenza no número de electróns que interactuar co obxectivo, segundo llos fixera xirar nunha dirección ou outra. A forza débil entre o electrón e os quarks está detrás do fenómeno.
A forza débil experimentada por quarks ten dous compoñentes. Un é análogo á carga eléctrica e mediuse ben en experimentos anteriores, pero o outro está relacionado co spin ou xiro do quark e illouse por primeira vez no experimento do Jefferson Lab.

En concreto, os resultados conducen a unha combinación de acoplamento débil electrón- quark formulada como 2 C 2 unidade de masa atómica - C2d (onde ou son os quarks up ou arriba e d os down ou abaixo), que é cinco veces máis precisa que a determinada con anterioridade.
Este acoplamento particular describe canto da ruptura na simetría especular nas interaccións electrón-quark se orixina polas preferencias de xiro dos quarks durante a interacción débil. O último experimento que rexistrou isto desenvolveuse no actual SLAC National Accelerator Laboratory (EUA) hai máis de 70 anos.


O novo resultado é o primeiro que mostra que esta combinación non é cero, segundo o predito polo modelo estándar, pero tamén establece novos límites para ir máis alá. Estes datos complementan, e en certos aspectos superan, os que ofrecen os colisionadores de partículas, como o LHC do CERN.

Quarks


Un equipo internacional de científicos no Jefferson Lab de EUA rexistrou cunha precisión sen precedentes como rompe a simetría especular cando se bombardean quarks con electróns destros e zurdos. O modelo estándar da física xa predicía esta pequena violación da paridade -así chámase- mentres actúa a forza débil entre as partículas.
Membros dunha colaboración científica do Jefferson Lab de EUA mediron unha propiedade intrínseca dos quarks cunha precisión cinco veces superior á conseguida ata agora, hai case 40 anos.

Trátase dun raro caso de ruptura da simetría do espello, o que os científicos denominan violación CP ou violación da paridade, cando se realiza un experimento de dispersión electrón-quark. Os detalles técnicos publícanse na revista Nature.
O resultado axústase ao que predí o modelo estándar da física, unha teoría que describe as partículas subatómicas e as súas interaccións, salvo a gravidade; e confirma unha propiedade concreta: a simetría especular de quarks.






En principio as características dun obxecto mantéñense aínda que se voltee coma se fose a súa imaxe no espello. No caso dos quarks, tres das catro forzas que interveñen nas súas interaccións -a gravidade, o electromagnetismo e a nuclear forte- presentan esta simetría especular; pero a cuarta, a forza débil, non.
Isto significa que as características intrínsecas que determinan como interactuar os quarks a través da forza débil -os acoplamentos débiles- son diferentes da carga eléctrica da forza electromagnética, a carga de 'cor' da forza forte ou a masa da gravidade.
Os investigadores rexistraron a ruptura da simetría especular de quarks a través dun proceso de dispersión inelástica profunda, unha forma de analizar o interior dos protóns e neutróns mediante electróns. Para iso enviouse un feixe de 6,067 GeV de electróns cara a núcleos de deuterio (isótopo do hidróxeno cun neutrón e un protón).

"Nunha dispersión inelástica profunda, o impulso realizado polo electrón vai dentro do nucleón (protón ou neutrón) e rómpeo", explica Xiaochao Zheng, profesor na Universidade de Virxinia e voceiro da colaboración científica.

Para producir o efecto de visualización dos quarks a través dun espello, a metade dos electróns enviados programáronse para xirar no seu traxecto cara á dereita (destros) e a outra metade cara á esquerda (zurdos).

Curiosity


O vehículo Curiosity, que se encontra en Marte dende hai un ano e medio, realizou esta semana o traxecto máis longo en marcha atrás.

Esta operación aconteceu o martes pasado, cando o rover percorreu 100,3 metros nesta dirección, que ademais foi o máximo avance dunha xornada completa dende hai máis de tres meses.

Esta técnica de condución permite diminuír o dano ás rodas, algo que preocupa aos expertos en terra, pois a fins do ano pasado foron detectados máis buratos nas lamias do presupostado.

"Queriamos practicar a condución en marcha atrás porque sen dúbida haberá partes da nosa ruta que serán máis difíciles", dixo Jim Erickson, do Laboratorio de Propulsión a Chorro da Nasa en Pasadena, California.

Para definir ben o camiño a seguir, e evitar o terreo difícil, o equipo do rover está a utilizar imaxes tomadas dende a órbita do planeta vermello. E se aínda así se encontran cunha ruta complicada, poden ocupar esta técnica para corrixir o rumbo.


Ata o momento, e segundo informa a axencia espacial estadounidense, o Curiosity percorreu 5,21 quilómetros dende a súa aterraxe en agosto de 2012. O próximo destino é o monte Sharp, unha montaña de 5.500 metros onde se poderían achar evidencias de como cambiou e evolucionou o clima en Marte. Espérase que chegue a este lugar a mediados deste ano.


As viaxes no tempo



As viaxes no tempo seguen sendo un anhelo para moitos, e non faltan os científicos que van tras esta sorte de sono. Entre idas e voltas, a ciencia asegura ou nega alternativamente que as viaxes no tempo sexan unha posibilidade concreta. Pero, máis alá disto, o feito de viaxar no tempo implicaría varios riscos que descoñecemos, e un deles é o que se coñece como "paradoxo do avó", que é na que caen todos os personaxes que nomeamos máis arriba.

O paradoxo do avó refírese, concretamente, a que se se viaxase no tempo cara a "atrás", poderían alterarse os feitos de tal maneira que o presente sería absolutamente distinto. E o primeiro rexistro que se ten deste paradoxo é o que deixou plasmado o escritor de ciencia ficción Rene Barjavel no seu libro El viaxeiro imprudente, de 1943. Deste texto derívase o nome co que máis se coñece ao paradoxo, posto que o personaxe viaxa no tempo e asasina o seu avó antes de que puidese ter fillos, un erro importante para o viaxeiro, xa que dese xeito tamén se eliminou a si mesmo.

Enténdese que o paradoxo do avó tamén leva consigo unha contradición filosófica, que é a que se formula no suposto de que se estaría a cometer un suicidio sen atentar directamente contra un mesmo.

As viaxes é o tempo son aínda meras especulacións na mente dos escritores de ciencia ficción e dalgúns científicos, pero, polas dúbidas, se algunha

Misións marcianas


Este traballo vai ser de grande importancia para as futuras misións ao planeta vermello, segundo destacou a coautora do estudo,Jennifer Eigenbrode. "A radiación é probablemente o parámetro clave para determinar as alteracións que están a experimentar as rochas e a materia orgánica da superficie", explicou.

Eigenbrode apuntou que isto se debe a que as partículas máis poderosas no aire tamén penetran no chan marciano. Ao chocar na superficie, as artículas solares enerxéticas e dos raios cósmicos galácticos producen raios gamma e neutróns que doadamente poden romper os enlaces moleculares no chan.

"Estes eventos puideron borrar todas as probas da vida preto da superficie", alertou a investigadora, quen indicou que para achar moléculas orgánicas intactas haberá que cavar máis profundo, por debaixo dun metro, no chan marciano.

Neste sentido, destacou que o estudo facilitou os labores de busca, porque agora poden saber como e onde buscar as evidencias, antigas ou actuais, de vida.


Do mesmo modo, utilizaranse estes datos para mellorar o deseño dos traxes e dos hábitats dos futuros astronautas, así como para planificar mellor as súas actividades extravehiculares. "Co que aprendemos, podemos empezar a establecer sistemas de predición do clima", concluíu. vez lles toca en sorte trasladarse uns anos atrás, por favor, non cometan ningún erro.



Radiación marciana


Un estudo elaborado polo equipo da misión Curiosity da NASAdestacou que só a viaxe de ida a Marte expoñería un astronauta a uns niveis de radiación 15 veces superiores ao límite anual que se lle impón a un traballador de central nuclear.

Os datos achégaos o propio robot que tardou en chegar a Marte 180 días e nese tempo estivo exposto a uns 300 mSv, o equivalente a 24 tomografías, e iso "só para chegar ao planeta", destacaron os autores.

Este traballo, que foi publicado en 'Science', levouse a cabo cos datos que recolleu o rover dende que comezou a súa misión no planeta vermello. Neste sentido, os expertos recoñecen que, aínda que a radiación sempre foi un tema de estudo dende a axencia espacial estadounidense, case todo o que sabe "se aprendeu nos últimos 200 días", grazas ao robot.

Durante moito tempo sóubose que o espazo é un lugar perigoso para permanecer durante moito tempo debido á radiación pero cría que, unha vez que os exploradores aterrasen con seguridade na superficie de Marte, o planeta proporcionaría protección dos estragos da radiación.

Non obstante, este novo estudo di o contrario. Os datos demostraron que a aterraxe no planeta resolve o problema só parcialmente, xa que a radiación cósmica que chega na distancia está bloqueada, pero só se reduce á metade. Segundo os expertos, a protección contra as partículas solares fortes é de mala calidade e inconsistente xa que a atmosfera marciana é exigua e está, en moito casos, dominada polo vento solar.

"A variabilidade nos niveis de radiación é moito máis grande do esperado", sinalou o investigador principal, Don Hassler, que, ademais, explicou que as taxas semanais e mensuais recollidas co robot son variables ao longo do ano marciano. "Tamén hai variacións estacionais na radiación", apuntou.

A NASA destaca que é a primeira vez que se fan lecturas de radiación tan precisas e dende a superficie doutro planeta. Este aspecto é case imposible de estudar dende a Terra xa que esta está protexida pola magnetosfera e unha atmosfera relativamente grosa. "Pero agora sabemos que a radiación é un feito cotián da vida en Marte", indicou Hassler.

Precisión


Un complexo experimento realizado por uns investigadores en Alemaña deu como resultado unha precisión nunca alcanzada ata agora na medición da masa do electrón, a partícula elemental que rodea o núcleo formando os átomos. O valor da masa do electrón é un dos parámetros mellor coñecido na física de partículas. Pero un equipo alemán logrou mellorar nun factor 13 a medida da devandita masa respecto ao valor aceptado ata agora polo Comité de Datos de Ciencia e Tecnoloxía (CODATA), que estaba determinado, dende 2010, cunha incerteza de tan só catro diezmilmillonésimas, recalcan no seu artigo.

Obviamente é unha incerteza minúscula e dá unha idea da asombrosa precisión experimental que se pode alcanzar en ciencia.Sven Sturn, do Instituto Max Planck, e os seus colegas mediron un valor para a masa atómica do electrón de 0,000548579909067 de unidade de masa atómica, definida como un duodécimo da masa do átomo de carbono 12, explica a revista Nature onde se dá a coñecer esta semana o resultado.

Pero a importancia do experimento non se limita a engadir máis e máis decimais nese valor da masa da partícula en cuestión. "Un novo valor da masa atómica do electrón é un elo nunha cadea de medidas que permitirá poñer a proba o Modelo Estándar de física de partículas cunha precisión superior a unha parte por billón", sinalaNature. O devandito Modelo Estándar, que tan popular se fixo coa entrada do seu máis recente e definitivo integrante, o bosón deHiggs descuberto no CERN hai un par de anos, describe as partículas elementais e as forzas de interacción entre elas. E entre as constantes fundamentais do Modelo Estándar que lle confiren o seu poder predictivo "destaca a masa do electrón, responsable da estrutura e propiedades de átomos e moléculas," sinalan Sturm e os seus colegas. Por iso, recordan, determinar o seu valor con precisión foi un empeño continuo dos físicos nas últimas décadas.

Pero ademais Edmund G.Myers, da Universidade do Estado do Florida, apunta que, partindo da base de que tanto os cálculos teóricos coma as medidas experimentais sexan correctas, "calquera diferenza entre uns e outras pode apuntar cara a unha física máis alá do Modelo Estándar", é dicir, cara a fenómenos ignotos e inexplicables co sólido marco teórico actual, pero que permitirían abranguer niveis máis profundos de coñecemento acerca de como é e como funciona a natureza.

O equipo do Instituto de Física Nuclear do Max Planck, enHeidelberg, xa veterano neste tipo de investigacións, sinala Myers, obtivo o novo valor de alta precisión da masa atómica do electrón medindo unha destas partículas elementais enlazada a un ión de referencia (un núcleo de átomo de carbono) de masa atómica coñecida e aplicando cálculos teóricos avanzados na análise dos datos. Utilizaron o que se denomina trampa de Penning, que permite almacenar partículas cargadas cunha combinación de campos magnético e eléctrico.

Fe na ciencia



Hoxe as teorías científicas en xeral non se refutan; apróbanse e aceptan en canto son parte de teorías máis amplas e exhaustivas. Por este motivo, as leis do movemento de Newton seguen estando presentes para dicirnos que acontecerá se nunha rúa conducimos contra o tráfico; pero soamente se aplican cando a masa do corpo é de tamaño mediano (non por exemplo, pequena como un electrón ou grande como unha estrela) e as correspondentes velocidades son baixas (ata unha fracción da velocidade da luz). Fóra destes límites, teorías como a teoría da relatividade de Einstein mostran que as leis de Newton -dentro dese rango de masa e velocidade- son unha aproximación dunha teoría máis ampla. Agora ben, talvez as teorías de Einstein esperan ser consideradas parte de algo máis amplo e aínda máis completo.


Pero eses desenvolvementos das teorías científicas non deben favorecer a desconfianza en relación coa ciencia nin nos incitar a adoptar un enfoque que considere a Deus un "recurso provisional", onde unha lagoa percibida nun coñecemento científico actual supostamente deixa espazo para algo sobre o cal a ciencia non está en condicións de dar conta e polo tanto só pode explicarse recorrendo a unha fonte sobrenatural, é dicir, a Deus. A nosa fe debería permitirnos ter confianza nas leis da ciencia (e na validez dos esforzos da ciencia) para así crer que poden ser parte integrante da creación de Deus, máis que algo que debe explicarse separadamente ou a pesar do amor de Deus á creación.





A Teoría xeral do Todo



Pero agora hai unha meta aínda máis ambiciosa: a "Teoría xeral do Todo". Será un modelo que reúna todos os coñecementos sobre a realidade científica, e incluirá o Modelo Estándar, pero tamén a teoría cuántica e a teoría da gravidade. Ata hai algúns anos esta meta parecía ao alcance da man, ata o momento en que os astrónomos comprenderon que tres cuartos da materia existente no espazo é o que agora se chama "materia escura". Non sabemos o que esta é nin de onde vén; é invisible e está fóra do seu campo gravitacional. Non obstante, en realidade tamén podería non existir, xa que a nosa comprensión da gravidade podería ser errónea. En todo caso, neste momento, ao parecer a teoría xeral só cobre unha fracción máis ben pequena de todo.

A teoría xeral da relatividade de Einstein ofrece un modelo que describe con gran precisión os efectos da gravidade; a teoría cuántica e o Modelo Estándar proporcionan unha descrición cada vez máis completa de interaccións que se verifican nunha escala moi reducida, pero non consideran os efectos da gravidade. Verificar a existencia do bosón de Higgs é un paso en dirección cara á confirmación do Modelo Estándar, pero aínda cando este poida parecer completo e definitivo, non representa o final da física, por canto esta segue explorando a complexidade e as implicacións da teoría. E en todo caso os aceleradores do CERN -e talvez outros aínda máis poderosos- poderían descubrir novas partículas que demostren en que medida o noso coñecemento actual non chega suficientemente lonxe. Hai unha lexítima sospeita de que existe unha longa lista de partículas aínda por descubrir cuxo coñecemento nos axudaría a dar outro paso cara á Teoría xeral do Todo.

As enerxías correspondentes aos dous aceleradores, do CERN e doTevatron, son tan poderosas que aquilo que se verifica no seu interior dificilmente pode verificarse noutras partes na Terra, se se exclúe unha reacción ocasional provocada por un raio cósmico dotado dunha enerxía sumamente poderosa que nos impacte dende algún punto do espazo. O verdadeiro interese do descubrimento vinculado co bosón de Higgs reside en que semellante coñecemento nos ofrecerá un cadro máis claro da orixe do universo, dese Big Bang que foi o comezo de todo. Segundo sabemos, nos primeiros instantes despois de acenderse a mecha do universo, as partículas fundamentais comezaron a reaccionar para producir os "ladrillos" do universo: partículas como os neutróns, os protóns e outras, logo o hidróxeno e o helio e por último os átomos e as moléculas que constitúen as estrelas e os planetas que hoxe vemos arredor noso.

A ciencia non chega a indagar antes do Big Bang: en xeral -dise- porque o tempo comezou nese momento, de maneira que o concepto de "antes" carece de todo significado, ou porque o meteoro uniforme deses primeiros instantes non podía conter información ningunha vinculada cunha estrutura ou orixe anterior, se esta tivese existido.

A colisión

O 27 de xaneiro 1971 produciuse a primeira colisión protón-protón na Organización Europea de Investigación Nuclear (CERN), coa posta en marcha do acelerador ISR, o primeiro non lineal, que funcionou ata 1984 cambiando a opinión de moitos membros da comunidade científica, que poñían en dúbida a utilidade dun colisionador de hadrones.

O ISR compoñíase de dous aneis entrelazados cun diámetro de 150 metros. Cada anel contiña un tubo rodeado de imáns que dirixían as partículas circulantes. Así, os protóns circulaban en direccións opostas e colisionar cunha enerxía máxima de 62 GeV.

Pero este acelerador tamén é o que realiza as primeiras colisións protón-antiprotón e onde se desenvolveu primeiro o arrefriamento aleatorio, que reduce tanto a dimensión transversal do feixe e a propagación na enerxía das partículas. Esta técnica foi utilizada posteriormente, con grande éxito, para permitir as colisións protón-antiprotón no Súper Sincrotrón de Protóns, aínda en uso.

Aínda que os principais descubrimentos se realizaron cando ISR xa non estaba en activo, este colisionador axudou a proporcionar indicios de que os protóns se compoñen de partes máis pequenas.


Desenvolvemento da máquina


Neste sentido, os expertos engadiron que, arredor do 15% de investigación realizada no ISR foi acerca da propia máquina. Os físicos e enxeñeiros implementar melloras continuamente, de modo que o colisionador creceu cada vez máis, sofisticádo nos seus 13 anos de vida.

De feito, proxectos como o Gran Colisionador de Hadrones (LHC) non terían sido posibles sen o ISR e os coñecementos adquiridos co detector durante a súa aplicación, apuntou o CERN. O túnel de ISR utilízase actualmente para o almacenamento e o traballo con imáns.

O CERN


(perigos)


O confinamento inercial supón un paso importante cara á fusión da enerxía nuclear?

Efectivamente se están a dar avances, tanto na tecnoloxía que se está a utilizar en Estados Unidos (confinamento inercial), como, dentro do proxecto ITER, no sur de Francia, de confinamento magnético. Eu non son un especialista niso, pero parece ser que as investigacións están a avanzar máis rápido do que os investigadores esperaban. Quizais se poidan ter prototipos, para logo avanzar na aplicación industrial, no prazo de dez anos.

Pódese dicir que a fusión nuclear está máis preto?

Insisto, eu non son un experto, pero, polo que me chega, diría que si. Haberá que ver, porque hai toda unha serie de intereses nas enerxías actuais, e os investimentos que fixeron necesitan rendibilizalas.

Que está a pasar coas investigacións do acelerador de partículas doCERN?

Agora estanse a adaptar todos os detectores do CERN, e o acelerador estase revisando e mellorando a capacidade dos imáns, así como toda a cuestión dos empalmes. Un vez que se poña todo isto en orde, poderase duplicar a enerxía que xa se alcanzou. Está programado para que se reinicie o ano que vén. Poderanse alcanzar medidas de máis precisión das desintegracións do Higgs. Todos estamos asombrados de que as cousas vaian tan ben como se predicía no modelo estándar. Gustaríanos que as cousas non fosen tan ben...

Como hai que entender iso?

Porque o modelo estándar explica moitas cousas, pero non explica outras. E como vai tan ben, tan ben, a cousa, non dá lugar á explicación desas outras cousas.

A teoría da relatividade segue en pé?

Claro, claro. Funciona. Funciona a teoría da relatividade e a teoría da relatividade xeral. Non hai ningún problema.

O LHeC

O LHeC, céntrase nun novo acelerador de electróns cuxo potencial analizará, entre 2014 e 2017, un grupo de investigadores que conta entre os seus coordinadores co galego Néstor Armesto, profesor da Facultade de Física da Universidade de Santiago de Compostela (USC).
Néstor Armesto é o único español que forma parte do grupo de nove persoas que coordinarán, a día de hoxe, a máis de 150 científicos dunhas setenta institucións de distintos países, unha cifra que moi probablemente medrará con novas adhesións. É ademais un dos dous únicos físicos teóricos do equipo que encabeza un proxecto que permitirá valorar a viabilidade da construción do novo acelerador de electróns a mediados da década de 2020.

venres, 21 de febreiro de 2014

Electroimán

(aplicacións)

Como tipo de imán onde o campo electromagnético prodúcese por un fluxo dunha corrente eléctrica, son utilizados por exemplo no HLC (gran acelerador de hadróns). Este acelerador de partículas fai moverse aos protóns (que desprázanse por unha especie de tubería) a velocidades próximas á luz e fainos chocar nunha tanqueta preparada con dispositivos de camptación fotónica e electromagnética para ver as partículas máis pequenas que forman a materia, as partículas que forman toda a materia que coñecemos na actualidade. Para que os protóns non choquen coas paredes do acelerador e reducindo así a cero o rozamento proporcionándolles asi esas grandes velocidades, úsanse grandes electroimáns con uns potenciais inmensos que xeran campos electromagnéticos inmensos. Esta é unha das aplicacións importantes nos campos de investigación. Tamén son utilizados nas centrais eléctricas para a producción de correntes eléctricas alternas. E tamén nos campos de reciclaxe para separar os metais da demais basura.



Fotón

É unha partícula elemental responsable das manifestacións cuánticas do fenómeno electromagnético ademáis é a partícula portadora de tódalas formas de radiación electromagnética, incluíndo os raios gamma, os raios X, a luz visible do espectro electromagnético, as microondas, a luz ultravioleta, as ondas de radioe a luz infravermella.
Ten unha masa invariable. Os estudos experimentais recentes reflicten que a súa masa é cero porque se transforma por completo en enerxía, polo que se expresaría a enerxía con unidades de masa para determinala súa masa.



mércores, 5 de febreiro de 2014

A ionización

Existen dous tipos en diferenciados en canto a proporción de cargas: os anións que teñen máis electróns e unha carga neta negativa e os catións que teñen menos electróns e unha carga neta positiva.
É un fenómeno físico-químico no cal prodúcense iones, é dicir partículas cargadas eléctricamente xa que existe potencial eléctrico ou o que é o mesmo un diferencial en canto a cantidade de enerxía eléctrica respecto dun átomo ou molécula neutra.
A ionización é producida por tres tipos de enerxía que sae de tres fontes distintas: os raios gamma, os raios x ou unha máquina que xera electróns (esta máquina fai que unha cantidade importante de electróns móvanse a unha velocidade determinada xerando así un potencial que posiblita o fenómeno da ionización, algo parecido ao que ocorre cos raios gamma e X pero estes son digamos que "naturais" e a súa frecuencia e lonxitude de onda son suficientes para producir dito potencial).


luns, 3 de febreiro de 2014

O plasma

É o cuarto estado de agregación da materia parecido o gasoso pero diferenciado, xa que as partículas que forman ese plasma non están cargadas equitativamente polo que xeran a posiblidade de conducir moi ben a electricidade como unha especie de superconductor. Como o da materia en estado gasoso non ten volumen definido, pero cando o plasma é sometido á influenca magnética fórmanse estructuras parecidas aos raios ou mesmo capas de enerxia producidos ámbolos dous pola atracción magnética que xera ese campo sobre as partículas que están máis cargadas dentro do plasma e que polo cal responden fortemente ás interacciones electromagnéticas de largo alcance.
O estudo ao que foi sometido este estado de agregación todavía non foi o suficientemente profundo, xa que aínda quedan moitas características e particularidades por descubrir, isto propiciou que numerosas películas ou mes o videoxogos utilicen as chamadas pistolas ou rifles de plasma. O que sí sabemos é que a realidade sempre supera a ficción polo que dentro de nada estaremos utilizando tecnoloxía relacionado con plasma para medicina, mellorar o noso día a día,  etc.