Loading...

Total de visualizações de página

Postagens populares

domingo, 27 de setembro de 2015

COMO OS URSOS HIBERNAM?

Para enfrentar o frio e a escassez de alimentos do inverno do hemisfério norte, eles tiram o time de campo, passando um tempo sem beber, comer, urinar e defecar. No caso dos ursos-negros, esse período varia entre 5 e 7 meses por ano. Segundo uma pesquisa da Universidade do Alasca divulgada em fevereiro, o metabolismo dessa espécie fica reduzido a 25% de sua capacidade, a temperatura do corpo baixa em média 6 °C e a frequência cardíaca cai de 55 para só nove batimentos por minuto! A queima da gordura estocada no corpo libera a água e as poucas calorias de que ele necessita para sobreviver. Também acontece uma reciclagem de componentes nitrosos, como a ureia. Combinados com a glicerina resultante do uso da gordura, esses dejetos formam aminoácidos que ajudam a manter as proteínas corporais.

Hora da soneca

Saiba como o bicho se prepara para sumir do mapa por até sete meses

Atividade normal

Esse é o período “tranquilo”, quando o clima está favorável, há alimento disponível e o metabolismo do animal funciona em 100% da capacidade. Em geral, começa ao final do primeiro mês da primavera e vai até a metade do verão

Hiperfagia

O nome já diz tudo: é hora de comer bastante! Desde o meio do verão até um pouco mais da metade do outono, os ursos-negros com acesso ilimitado a alimento bebem pelo menos 30 litros de água por dia e estocam calorias (enquanto o gasto calórico continua o mesmo de antes)

Transição de outono

Começam a diminuir o metabolismo para a hibernação. Comem menos que na hiperfagia, mas o consumo de água e a urinação seguem em alta. Os batimentos cardíacos caem de cerca de 80 por minuto para cerca de 50 (e, durante as 22 horas diárias de sono, chegam a 22 por minuto).

Hibernação

Pode chegar a sete meses. Durante o período, o consumo de calorias diárias, extraídas da gordura acumulada na hiperfagia, cai para entre 4 e 6 mil. O metabolismo é reduzido a 25%. Até a entrada de oxigênio é muito reduzida: em geral, o urso respira só uma vez a cada 45 segundos

Hibernação ambulante

Sabe quando você acorda e ainda está meio grogue? Imagina após dormir por meses! Por cerca de 20 dias, os ursos mantêm o metabolismo abaixo da capacidade total, embora a temperatura do corpo já volte ao normal. É o período de ajuste antes de retornar à vida regular

Cafofo animal

Eles hibernam sob as raízes ou na base de uma grande árvore, debaixo de um rochedo ou em uma toca que cavam no solo, com ao menos 0,5 m de altura e quase 1 m de comprimento. O chão e o fundo são forrados com ramos de vegetação. Nas regiões muito frias, montam a toca em um ponto onde caia muita neve para aumentar o isolamento térmico. E costumam voltar ao mesmo abrigo todo inverno

Cada um por si

Ursos são essencialmente solitários, exceto na época de acasalamento. Ou quando as ursas prenhas dão à luz, geralmente durante a hibernação. Elas ficam na toca com os filhotes (entre três e seis) durante todo o inverno, amamentando-os. Após a hibernação, cuida deles até os 2 anos. Depois disso, os pequenos têm que se virar para conseguir alimento e montar o próprio abrigo

E no zoológico?

Longe do habitat natural, bicho perde o ciclo Ursos em cativeiro dificilmente hibernam, já que, dependendo do lugar, não faz frio e sempre há alimento disponível. Aliás, por esse mesmo motivo, o panda não hiberna nem na natureza: seus brotos de bambu não escasseiam com a mudança das estações. E, como vivem no alto das montanhas, caso o frio aperte, basta procurar uma temperatura mais amena em altitudes mais baixas Outros animais que hibernam: esquilos, marmotas, morcegos, hamsters, ratos-silvestres e ouriços. fonte:mundoestranho.abril.com.br

QUAL SERIA A VELOCIDADE NECESSÁRIA PARA SAIR DA VIA LÁCTEA

Se este planeta inteiro, o sistema solar e a galáxia não tiverem empolgação suficiente para você, prepare-se para acelerar muito — cientistas descobriram que você precisa viajar a incríveis 1,9 milhão de km/h para sair da Via Láctea. Uma equipe de pesquisadores do Instituto de Astrofísica de Leibniz, em Postdam(Alemanha), usou dados do Experimento de Velocidade Radial (RAVE, no original em inglês) para descobrir qual velocidade seria necessária para deixar a nossa galáxia. Analisando o movimento de 90 estrelas de alta velocidade e usando uma série de complexos modelos teóricos da massa calculada da galáxia, eles conseguiram calcular a velocidade com que objetos conseguem sair da Via Láctea. Os resultados sugerem que uma nave precisaria viajar a 537 km/s (ou 1,9 milhão de km/h ou, ainda, 0,2% da velocidade da luz) para escapar da atração gravitacional da nossa galáxia. Para contextualizar, um foguete precisa de 11,2 km/s, ou 40320 km/h, para fugir da gravidade da Terra. Impossível? Embora os foguetes atuais jamais consigam esse feito, o astrônomo Joss Bland-Hawthorn explica à New Scientist que existe uma outra maneira: “Sei que é uma ideia maluca, mas se você tivesse muita matéria e muita antimatéria, seria possível prover energia suficiente para uma nave sair da galáxia.” fonte:gizmodo.uol.com.br/vocep-precisa-atingir-19-milhao-de-kmh-para-sair-da-via-lactea/

O ESMALTE DO DENTE PODE TER COMEÇADO COMO ESCAMA DE PEIXE

Seu sorriso branco-pérola tem uma história de origem nos peixes. E não, não estamos nos referindo ao seu uso excessivo de produtos de branqueamento dentário. Peixes reais estavam envolvidos, há milhões de anos. O esmalte dos dentes é a substância mais dura do corpo humano, protegendo os dentes contra danos. Ele é encontrado somente nos dentes de vertebrados, mas como surgiu para blindar nossas bocas se manteve um mistério. Agora, os cientistas acreditam que podem ter encontrado uma resposta nas escamas de peixe de 400 milhões de anos de idade. Em um artigo publicado na Nature, pesquisadores descobriram uma substância brilhante nas escamas de peixe chamada ganoína que está relacionada com o esmalte. Eles recolheram amostras da substância de peixes cartilaginosos vivos, como o peixe-agulha manchado, que se parece assim: Os pesquisadores descobriram que as proteínas na pele do peixe-agulha manchado eram idênticas às proteínas ligadas ao desenvolvimento do esmalte em dentes humanos. O peixe-agulha tem ganoína em suas escamas e em partes de seus dentes. Olhando para trás, através do registro fóssil, os cientistas descobriram que os peixes primitivos, como o Psarolepis romeri, de 400 milhões de anos atrás, tinham a mesma substância, ganoína, em suas escamas, mas não em seus dentes. Isto sugere que, em algum ponto entre os dois, a produção da ganoína mudou de apenas das escamas para abranger os dentes também. “Nossa hipótese é que o esmalte se originou nas escamas, antes de colonizar os ossos dérmicos e finalmente os dentes,” os autores escrevem. Eles acreditam que a ganoína do esmalte teve como função inicial apenas proteger escamas de peixes ósseos antigos, criando placas blindadas como o peixe-agulha manchado tem ainda hoje. Os dentes destes peixes eram simplesmente desprotegidos, “dentina nua”. Dentina é a parte dura, branca do dente precisamente sob o nosso esmalte – é forte, mas não tanto como o esmalte. Em algum lugar ao longo da linha evolutiva, alguns destes peixes antigos começaram a incorporar ganoína/esmalte em outras superfícies duras de seus corpos, incluindo as estruturas dentais, chamadas odontoides, que eles tinham do lado de fora de suas bocas. Eventualmente, esta teoria diz que os peixes começaram a evoluir com ganoína/esmalte sobre seus dentes atuais, uma característica que tem sido passada pela linha evolutiva para quase todas as criaturas dentadas hoje, dos seres humanos aos crocodilos. fonte: www.curioso.blog.br/post/esmalte-dente-comecado-escama-peixe/

OS ALIENÍGENAS SERIAM HUMANOS DO FUTURO?

Microbiologista que alega ter trabalhado na Área 51, disse que os extraterrestres são os seres humanos de 45.000 anos e 52.000 d.C que evoluíram. Abordagens sobre como seria os habitantes de outros mundos têm sido mistos. Alguns visualizá-los como insetos, répteis e outros como seres cinzas com grandes cabeças e olhos pretos ovais. Talvez esta última caracterização é mais conhecido por todos os que seguem o fenômeno UFO, dada a imagem comum que tem o projeto indústria cinematográfica. Mas o que você pensaria se eu lhe dissesse que os alienígenas são realmente nossos descendentes? Isso é o que você pensa, microbiologista Dan Burisch, que também afirma que trabalhou na base já lendário "Área 51". Entrevistado pelos mistérios do programa Internet, "Camelot Project" em Junho de 2007, o especialista falou sobre tudo sobre tecnologias secretas da viagem no tempo que lida com US através do grupo Majestic-12. Este organismo foi criado pelo Presidente Harry Truman, após o incidente de Roswell e cuja missão é estudar a origem dos objetos extraterrestres que caiu nas mãos do governo dos EUA.

"Stargate" existe

O especialista em vida celular disse que, enquanto trabalhava na área 51, aprendeu muitas coisas que as pessoas não sabem e não as coisas apenas diferentes para nós e suas naves, mas entradas diretas para outros mundos chamados de "Stargate". Como a série de ficção científica com o mesmo nome, os militares e os cientistas mencionaram país desenvolvido, se cruzaram várias vezes esses portais e já estabeleceu contato com outras civilizações. Burisch diz que pelo menos 50 deles espalhados por todo o mundo e são controlados por vários países. Esses portais seriam de três tipos; o primeiro é o "Livro Amarelo", que permitem aos utilizadores visualizar o seu próprio futuro. O segundo tipo são buracos de minhoca que ocorrem naturalmente; Eles encontraram em pontos específicos do nosso planeta e permitir a movimentação de pessoas e objetos para outros planetas ou estrelas. O terceiro tipo são os buracos de minhoca da criação humana; o grupo Majestic 12 ter construído vários âmbito do projeto Looking Glass e são usados em combinação com o "Livro Amarelo" de ver o futuro.

Humanos do futuro

De acordo com Burisch, UFOs não são naves alienígenas, mas viajantes do tempo que estão divididos em 3 grupos diferentes: P-45, P-52 e P-52 Orion. O primeiro grupo (P-45) são os seres humanos que vêm 45.000 anos no futuro, a segunda (P-52) são os seres humanos que vêm 52.000 anos no futuro, e o terceiro grupo (P-52 Orion) também vem 52.000 anos no futuro, mas é uma evolução diferente da raça humana que vem da constelação de Orion, de modo que este terceiro grupo tem um olhar muito diferente para os outros dois. De acordo com Burisch, ignorado em que ponto da história da humanidade-Orion P-52 foi separado do principal ramo humano.

Profecia inquietante

Burisch também argumenta que o futuro não é fixo, ele muda de acordo com a evolução desta, de modo que o "Stargate" fornecer visões que mudam. A partir daí uma rede de computadores analisa esta informação e determina a probabilidade de cada futuro possível. A revelação mais chocante de Burisch é que em algum momento no futuro uma grande catástrofe vai matar 4,5 milhões de pessoas e pode ocorrer. No entanto, ele não disse quaisquer detalhes sobre o que será a tragédia ou quando. fonte: guioteca.com/ovnis/impactante-teoria-los-extraterrestres-serian-humanos-del-futuro/

CONHEÇA UM POUCO MAIS SOBRE AS BATERIAS DE LÍTIO

São células primárias que têm ânodos de lítio metálico. As células de lítio produzem uma tensão cerca de duas vezes maior que a de uma bateria comum de zinco-carbono ou alcalina: 3 volts contra 1,5 volts, respectivamente. Baterias de lítio são usadas em muitos equipamentos eletrônicos portáteis, e são também largamente usadas em eletrônica industrial. O termo “bateria de lítio”, na verdade, refere-se a uma família compostos químicos, compreendendo muitos tipos de cátodos e eletrólitos. Um tipo de célula de lítio com alta densidade de energia é a “célula de cloreto de tionil-lítio”. Nesta célula, uma mistura líquida de cloreto de tionil com tetracloroaluminato de lítio atua como cátodo e eletrólito, respectivamente. Um material poroso de carbono serve como um colector de corrente de cátodo, o qual recebe elétrons do circuito externo. No entanto, as baterias de “cloreto de tionil-lítio” não são, geralmente, vendidas para consumidores finais, encontrando mais usos em aplicações comerciais ou industriais, ou então são instaladas dentro de aparelhos em que a troca de baterias não é feita pelo consumidor. As baterias de cloreto de tionil-lítio são muito adequadas para aplicações de baixa corrente em que uma grande durabilidade é necessária, tais como sistemas de alarme sem fio. O tipo mais comum de célula de lítio usada em eletrônica de consumo usa um ânodo de lítio metálico e um cátodo de dióxido de manganês, com um sal de lítio inorgânico composto numa mistura de alta permissividade (por exemplo carbonato de propileno) dissolvido em um solvente orgânico de baixa viscosidade (por exemplo dimetoxietano) como eletrólito. As baterias de lítio encontram aplicações em aparelhos críticos que exigem de longa vida, tais como marca-passos cardíacos e outros dispositivos médicos implantáveis. Estes dispositivos usam baterias de iodeto de lítio especializadas, projetadas para funcionar 15 anos ou mais. Em casos de outras aplicações menos críticas, tais como brinquedos, a bateria de lítio pode na verdade ultrapassar a vida útil do dispositivo. Nesses casos, uma bateria de lítio pode ser cara demais para justificar a aplicação. As baterias de lítio podem ser usadas no lugar de pilhas alcalinas comuns na maioria dos equipamentos, tais como relógios e câmaras digitais. Embora tenham um custo maior, as baterias de lítio possuem uma vida mais longa, minimizando assim as trocas de bateria. Pequenas baterias de lítio são muito comuns em dispositivos eletrônicos portáteis, tais como telefones celulares, termômetros, calculadoras, etc., como baterias de emergência em computadores portáteis e equipamentos de comunicação, e ainda em controles remotos automotivos. Elas são produzidas em muitos formatos e tamanhos, sendo os mais comuns as baterias em forma de uma “moeda” com 3 volts, tipicamente de 20 mm de diametro e 1,6–4 mm de espessura. As baterias de lítio podem suportar com facilidade as altas demandas de corrente de curta duração exigidas em dispositivos tais como câmaras digitais, mantendo uma tensão constante por um período de tempo mais longo que as pilhas alcalinas. Algumas outras baterias de lítio usam uma liga de platina-irídio em vez dos componentes mais comuns. Essas baterias não têm grande preferência, por serem muito caras e terem a tendência de ser muito frágeis. As baterias de lítio podem fornecer correntes extremamente altas e podem descarregar muito rapidamente se forem curto-circuitadas. Embora sejam muito úteis em aplicações onde altas correntes sejam requeridas, uma rápida descarga de uma bateria de lítio pode resultar em sobre-aquecimento, ruptura e até explosão. As baterias comerciais geralmente incorporam proteções contra sobrecorrentes e proteções térmicas para evitar essas explosões. Por causa desses riscos, o envio e o transporte de baterias são restritos em algumas situações, principalmente quando transportadas por via aérea. FONTE: megaarquivo.com/2012/04/08/5718-energia-as-baterias-de-litium/

RESOLVENDO O PROBLEMA DA BATERIA FRACA

Elas estão sempre aquém do ideal. Muito aquém, na verdade. A cada 18 meses, os chips de computador dobram de velocidade. Esse fenômeno foi descrito pela primeira vez em 1965 por Gordon Moore, então presidente da Intel, e ficou conhecido como Lei de Moore. Já as baterias… Nesse mesmo período, sua capacidade aumenta apenas 7%. Isso significa que elas levam 20 anos para alcançar a mesma evolução que os chips têm em um ano e meio. Mas por que é assim, afinal? Os chips melhoram rápido porque podem ser miniaturizados. Na CPU do seu computador, há bilhões de transistores – espremidos no espaço de um selo. Com as baterias, não é assim. Elas funcionam graças a reações entre elementos químicos – que não podem ser miniaturizados. O material de que a bateria é feita tem determinada capacidade de reter energia – e não há muito que possamos fazer para melhorar. “Isso é determinado pela natureza”, resume Winfried Wilcke, diretor de pesquisas em nanotecnologia e energia da IBM. As baterias só dão saltos quando a ciência descobre novos materiais ou novos processos químicos. E isso acontece bem raramente. A bateria (termo emprestado da terminologia militar, como em “bateria de canhões”) foi inventada pelo italiano Alessandro Volta, em 1800. Cinquenta e nove anos depois, o francês Raymond Gaston Planté inovou. Usou dois pedaços de chumbo, os polos, mergulhados numa mistura de ácido sulfúrico e água. Quando a bateria era ligada, elétrons escapavam do polo negativo, que se oxidava, e iam em direção ao polo positivo, que liberava oxigênio. Ou seja: formava-se uma corrente elétrica. Só que os materiais iam se desgastando, até que a bateria pifava. Planté teve a ideia de fazer o contrário, ou seja, dar um choque elétrico nela – e descobriu que ficava boa de novo. Nascia a primeira bateria recarregável. Elas começaram a ser utilizadas para alimentar luzes ferroviárias, faróis marítimos e em carros elétricos primitivos. As baterias de chumbo-ácido são resistentes, e até hoje essa tecnologia é usada em carros e barcos. Ela tem um grande defeito: as baterias são muito grandes e pesadas. Esse problema começou a ser resolvido em 1899, quando o inventor sueco Waldemar Jungner criou uma versão em que o polo negativo era de cádmio, e o positivo era de níquel. Nascia a bateria de níquel-cádmio (NiCd). Ela ganhou popularidade nos anos 1940, com o surgimento do walkie-talkie: um rádio portátil que os soldados americanos usavam para se comunicar no front. Depois da Segunda Guerra, a bonança vivida pelos EUA turbinou o mercado de eletrônicos. Surgiu uma infinidade de relógios, telefones, brinquedos e gadgets, muitos deles alimentados por baterias de NiCd. Mas elas tinham dois grandes problemas. O primeiro é que o cádmio é altamente tóxico. As baterias de NiCd podem contaminar rios e solo, e por isso seu uso foi restringido em diversos países. Na União Europeia, por exemplo, estão banidas desde 2008. O outro problema é o chamado “efeito memória”. Era preciso descarregar totalmente a bateria de NiCd antes de recarregá-la. Do contrário, a bateria estragava. Se você usasse 50% da energia dela, por exemplo, e aí tentasse recarregá-la, ela desenvolvia uma “memória” – ficava viciada e, dali em diante, só recarregava pela metade. A solução veio com as baterias de níquel-hidreto metálico (NiMH), que substitutem o cádmio por uma liga de metais não tóxicos e chegaram ao mercado em 1989. Eram bem menos poluentes, guardavam até 40% mais energia e supostamente não tinham efeito memória. Passaram a ser usadas em aparelhos eletrônicos, em satélites e até no telescópio espacial Hubble. Com o tempo, percebeu-se que a coisa não era tão boa. As baterias de hidreto também ficavam viciadas. E não davam conta de alimentar a nova geração de gadgets, como filmadoras e CD players portáteis, que sugavam mais e mais energia. Aí a indústria decidiu apostar em outro metal, o lítio (cujo nome vem de lithos, palavra grega que significa “pedra”). Ele já era usado em equipamentos militares, e tinha uma potência absurda: as baterias de lítio chegavam a alcançar 3,6 volts, o triplo das tradicionais. Eram uma maravilha, exceto por um porém: o material pegava fogo com facilidade. Durante as pesquisas, houve vários incêndios e pelo menos uma morte. Mas as baterias de lítio que usamos hoje não trazem o metal em estado puro, e sim uma mistura menos explosiva (íons de lítio). Além disso, têm circuitos internos que controlam o fluxo de energia, impedindo que oscile bruscamente – o que poderia fazer a bateria pegar fogo. Quando ouvimos falar de baterias que explodiram, geralmente se trata de versões falsificadas, nas quais os circuitos de proteção falharam. Mas nem sempre. Em 2006, a Dell recolheu 4,1 milhões de baterias de laptop, que haviam sido fabricadas pela Sony e apresentavam risco. O lítio é ruim, mas é o melhor que temos. Ainda não foi descoberto um material mais poderoso que ele. E há quem diga que isso nunca irá acontecer. “Não haverá mais grandes descobertas de materiais”, acredita Wilcke, da IBM. A grande aposta é aperfeiçoar o que já existe, criando novas combinações com o lítio. Uma das pesquisas, liderada por Wilcke, tenta criar baterias de lítio-ar. Elas são abertas e reagem com o oxigênio do ar. Graças a isso, armazenam mil vezes mais energia do que as baterias tradicionais. Seus criadores esperam que cheguem ao mercado em 2020. Podem ser a solução definitiva para os carros elétricos. Mas não vão resolver o problema dos celulares. “As baterias de lítio-ar são abertas, mas é necessário filtrar o ar que elas recebem. Não há problemas em fazer isso em um carro, mas o mesmo não acontece em um celular”, explica Wilcke. Seria preciso acoplar um purificador de ar no smartphone, que ficaria bem maior e mais pesado. Para os aparelhos de bolso, a grande esperança está em coisas incrívelmente pequenas: os vírus. Cientistas do Instituto de Tecnologia de Massachusetts (MIT) estão criando baterias que combinam lítio e um vírus geneticamente modificado. Ele se chama M13 e tem uma habilidade meio ciborgue: produz ferro. Conforme o vírus se multiplica, ele vai se agrupando e forma microfios perfeitos, que não têm imperfeições e por isso conduzem muito bem a corrente elétrica. Esses microfios podem ser usados dentro de baterias, que graças a isso duram até 3 vezes mais – ou podem ser construídas num tamanho muito menor sem perder potência. Os botões da sua roupa poderiam ser baterias, por exemplo. O exército dos EUA já manifestou interesse na tecnologia. Mas ela só vai se concretizar se o mundo tiver lítio suficiente para produzir baterias. E ele não é infinito. No século 21, o lítio será cada vez mais importante – tanto que há quem o considere o novo petróleo. Com todos os conflitos, e as controvérsias, associadas a isso.

A corrida do lítio

Hoje, os maiores produtores de lítio são Austrália (41%), Chile (38%), Argentina (10%) e China (9%). Uma única mina, recém-descoberta na Austrália, tem 4,3 milhões de toneladas do metal, o suficiente para alimentar o mundo pelos próximos 30 anos. “As reservas mundiais não estão em questão”, diz Jon Hykawy, analista de materiais da consultoria Byron Capital. Tem bastante lítio no planeta. Mas isso pode mudar – talvez antes do que se imagina. O milionário sulafricano Elon Musk é dono da Tesla Motors, uma fabricante de carros elétricos, que produz 33 mil carros por ano. Uma empresa relativamente pequena, mas com enorme potencial – tanto que seu valor de mercado é US$ 30 bilhões, mais da metade da gigantesca General Motors. Musk quer transformar o carro elétrico num produto de massa. E acredita que a chave para isso é criar baterias mais leves e potentes. Por isso, está construindo uma fábrica no estado de Nevada, nos EUA, que produzirá 500 mil baterias de lítio para carros por ano – o que equivale a dobrar toda a produção mundial. Ela vai custar R$ 6 bilhões, terá 6.500 funcionários e deverá ficar pronta em 2016. É um megaprojeto, que pode aumentar muito a demanda por lítio – e acirrar a disputa por ele. Se isso acontecer, a Bolívia vai dar um grande salto. É que ela é dona do salar de Uyuni, planície que contém uma enorme quantidade de lítio: o suficiente, estima-se, para aumentar em 50% as reservas mundiais. Ao longo das próximas décadas, os bolivianos poderão adquirir um poder comparável ao que os países produtores de petróleo têm hoje. Em vez de sheiks vestindo turbantes, os símbolos de riqueza farta e rápida serão os multimilionários andinos. E as superpotências mundiais, que hoje fazem de tudo para colocar as mãos no petróleo do Oriente Médio, fatalmente irão atrás do lítio boliviano. Isso pode transformar a geopolítica mundial. Mas talvez não impeça que as baterias continuem nos deixando na mão. As baterias perdem capacidade após 1 000 recargas – o que, nos smartphones, dá três anos de uso. Aí, o melhor é trocar mesmo.

Plano B

Outra opção é comprar uma bateria externa, que serve em qualquer celular (R$ 100), ou um case com bateria (há versões para iPhone e alguns Samsung, em torno de R$ 200). FONTE: megaarquivo.com/2015/09/22/11-807-mega-techs-resolvendo-o-problema-da-bateria-fraca/

COMO COMBATER AS DOENÇAS CRÔNICAS NÃO TRANSMISSÍVEIS?

Doenças cardiovasculares, cânceres, diabetes e doenças pulmonares têm muitas coisas em comum. Conhecidas como Doenças Crônicas Não Transmissíveis (DCNTs), são responsáveis por 63% das mortes em todo o mundo, segundo estimativas da Organização Mundial da Saúde. No Brasil – e este é um traço comum a países em desenvolvimento –, esse número é ainda maior: as DCNTs respondem por impressionantes 74% da mortalidade no país. Esse conjunto de enfermidades é o problema de saúde de maior magnitude do país, segundo o Ministério da Saúde. Para o futuro? Por volta de 2030, doenças cardíacas, cânceres, enfermidades relacionadas à obesidade e doenças do aparelho respiratório serão responsáveis por 81% das mortes na América Latina, dado do Population Reference Bureau. A genética pode favorecer o desenvolvimento das doenças não transmissíveis. Mas na maior parte dos casos é o estilo de vida que determina o ritmo do colapso. Sedentarismo, obesidade, tabagismo, estresse e até poluição atmosférica estão entre os principais desencadeadores de problemas crônicos. As DCNTs têm outra importante característica em comum: são assintomáticas e, quando se manifestam, são sinal tardio de um quadro grave já instalado. As doenças cardiovasculares, que no Brasil são as mais letais – causam 30% das mortes de todo o território –, costumam aparecer na forma de dores no peito (chamadas de anginas), falta de ar e fortes dores de cabeça. E é comum que apareçam também em sua forma fulminante. “Exames laboratoriais e de imagem são fundamentais para detectar doenças sem sintomas”, conta Daurio Speranzini Jr., presidente da GE Healthcare para a América Latina. “Um exemplo disso é o número bastante relevante de casos de pequenos tumores em rins – que não dão sinais de sua presença – descobertos em exames de imagem durante check-ups de rotina.” Em regiões do globo marcadas por campanhas contra doenças infecciosas, determinar políticas públicas eficientes para o tratamento dessas doenças tão invisíveis quanto fatais é tarefa difícil. Especialmente quando a receita para o caso é tão simples como adotar uma rotina de exames. “Infelizmente ainda nos empenhamos no tratamento das consequências”, diz o Dr. Wilson Mathias Jr., professor livre-docente em Cardiologia pela Faculdade de Medicina da USP, em São Paulo. “Carecemos de estratégias de prevenção.” O diagnóstico tardio é um dos responsáveis pelos números de mortalidade entre cardíacos, por exemplo. Para que o diagnóstico precoce se torne uma realidade acessível, ainda há muito a ser feito: “É preciso conectar o sistema de saúde público e privado e melhorar toda a infraestrutura, para possibilitar mais troca de informação”, aponta Speranzini. Medidas simples podem mudar o quadro de saúde do futuro no país. Segundo o Ministério da Saúde, 24% da população brasileira tem hipertensão arterial. Já entre os brasileiros com mais de 65 anos, 59% são hipertensos. “O Brasil ainda tem uma grande ocorrência de AVC (o acidente vascular cerebral), e a maior causa dessa doença é a hipertensão mal controlada”, explica o Dr. Mathias. “Da mesma forma que as pessoas costumam se pesar uma vez por mês, deveriam medir a pressão arterial a cada 3 meses.” fonte: megaarquivo.com/2015/09/22/11-808-saude-como-combater-as-doencas-cronicas-nao-transmissiveis/

DESVENDADO MISTÉRIO ANTIGO DA TEMPESTADE HEXAGONAL EM SATURNO

Há quase 30 anos que se procurava uma explicação para o efeito hexagonal das tempestades em Saturno. Finalmente, foi encontrada uma razão. O estranho hexágono foi visto pela primeira vez em 1988, quando a Voyager passou por Saturno, mas as imagens enviadas posteriormente pela Cassini confirmaram um padrão tão raro quanto perfeito. O que explica a formação de uma tempestade com 6 lados no pólo norte de Saturno é o vento. Raúl Morales-Juberías publicou um artigo no Astrophysical Journal Letters em que explica que o hexágono surge devido à altura da corrente em relação à superfície. O mistério foi desvendado com recurso a múltiplos modelos matemáticos da atmosfera de Saturno. "Nós encontramos dados que mostram que tanto o vento na parte inferior como na parte superior são importantes para que o formato hexagonal seja observado", disse Morales-Juberías. fonte: tsf.pt/sociedade/ciencia_e_tecnologia/interior/desvendado_misterio_antigo_da_tempestade_hexagonal_em_saturno_4796205.html

sábado, 26 de setembro de 2015

PESQUISADORES USAM RESSONÂNCIA MAGNÉTICA PARA IMPRIMIR MODELO DE CORAÇÃO 3D

Pesquisadores do MIT e do Hospital Infantil de Boston, Estados Unidos, desenvolveram um sistema que se baseia em ressonâncias magnéticas (MRI) do coração de um paciente para, em apenas algumas horas, convertê-las em um modelo tangível e físico. O objetivo é que tais modelos podem ser usados para planejar previamente uma cirurgia. Criar modelos tridimensionais impressos de órgãos humanos e vascularizados não é algo novo. No entanto, o novo algoritmo permite um ganho sem precedente em velocidade para agilizar todo o processo, garantiram os pesquisadores. O novo procedimento também aumenta a precisão das ressonâncias, de acordo com os pesquisadores. O sistema de modelagem foi criado pelo físico Medhi Moghari, do Hospital Infantil de Boston e Andrew Powell, um cardiologista no mesmo hospital, que liderou os testes clínicos. No passado, pesquisadores usaram modelos impressos identificando manualmente os limites das ressonâncias magnéticas. Mas a tarefa era árdua, e exigia cerca de 200 cruzamentos para chegar a uma certa precisão e levava de oito a 10 horas. Uma ressonância magnética é constituída por uma série de secções transversais de um órgão. Cada cruzamento contém regiões de sombra e luz; são os limites entre a luz e a sombra que podem indicar que há arestas de estruturas anatômicas. Ou a ausência delas. Este tem sido um dos principais problemas ao usar ressonâncias para produzir modelos 3D – ou seja, ter um computador para determinar os limites entre objetos distintos. Os algoritmos de proposta geral, usados para criar os modelos tendem a não ser confiáveis o suficiente para produzir modelos precisos que cirurgias requerem. Há também outros métodos para criar modelos impressos, mas eles também levam várias horas. Por exemplo, o modelo Solidscape Max2 3D printer, que combina uma impressora de fabricação de filamentos fundidos, é usado pela área médica para 'transformar' ressonâncias em modelos 3D para cirurgiões estudarem aneurismas antes de realizar uma cirurgia. O sistema leva 10 horas ou mais para imprimir. Assim como modelos anteriores, o novo método fornece um modo mais intuitivo para cirurgiões acessarem o coração de pacientes e se prepararem para idiossincrasias anatômicas. Danielle Pace, estudante graduado pelo MIT em engenharia elétrica e ciências da computação, foi o primeiro autor da pesquisa em sistema de modelagem 3D e liderou o desenvolvimento do software que analisa as ressonâncias. O novo método inclui um especialista que aponta os limites de uma imagem de ressonância magnética em algumas das seções transversais; os algoritmos de computador assumem a partir daí. Segundo os pesquisadores, os melhores resultados surgem quando eles solicitam ao especialista para segmentar apenas uma seção do coração, o que corresponde a um nono da área total de cada corte transversal. “Eu penso que se alguém me dissesse que eu conseguiria segmentar o coração todo em oito partes a cada 200, eu não teria acreditado”, disse Polia Golland, professor de engenharia elétrica e ciências da computação no MIT. “Foi uma surpresa para nós”. O processo de utilização de um especialista para segmentar amostras e a geração de algoritmos para criar um modelo digital 3D do coração leva cerca de uma hora. O processo de impressão 3D leva mais duas. Neste semestre, sete cirurgiões cardiologistas do hospital vão participar de um estudo que tem como objetivo avaliar o uso dos modelos. fonte: idgnow.com.br/internet/2015/09/21/pesquisadores-usam-ressonancia-para-imprimir-modelo-de-coracao-em-3-horas/

MICROSOFT OFFICE 2016 CHEGA PARA WINDOWS COMO FOCO EM COLABORAÇÃO

O novo Microsoft Office 2016 para Windows chega hoje e está pronto para a briga. A presença da venerável suíte de aplicativos da Microsoft no ambiente dos negócios é inegável e tem sido um componente chave na maioria dos workflows de companhias de todos os tamanhos por décadas. Nos anos mais recentes, no entanto, o domínio do Office no mercado de suítes de produtividade foi atacado por novos concorrentes. O Google tem sido um deles, especialmente por conta de seus pontos fortes em recursos colaborativos que permitem, por exemplo, que várias pessoas editem um mesmo arquivo ao mesmo tempo. A Microsoft vem para cima desse campo de ação com o lançamento do Office 2016 que está primariamente focado em ajudar os usuários a trabalhar melhor em grupo. Os novos recursos incluem, por exemplo, suporte em tempo real à coautoria de textos em Word permitindo que os usuários trabalhem juntos num mesmo documento sem mudar a informação que está sendo usada por uma outra pessoa. O recurso, mais para frente, será expandido para outras aplicações. Essa funcionalidade já estava disponível no app Web do Office, mas agora a Microsoft com o update do Office 2016 traz para desktop nativo em Windows o mesmo recurso, que chega dois meses após o lançamento do Windows 10. A versão para Mac do Office 2016 foi lançada pela companhia há quatro semanas Consumidores que já possuem uma assinatura do Office 365 já podem fazer o download gratuito do update a partir de hoje e os que não têm a assinatura podem comprar e ter acesso direto aos novos recursos. Adicionalmente, a Microsoft vai permitir que usuários comprem a versão única do produto sem precisar pagar a taxa mensal de assinatura.

Recursos

O update também tem novo suporte para recursos que facilitam o uso do Office, como o box "Tell Me", que permite aos usuários buscar rapidamente por uma função específica do aplicativo que estão usando sem precisar passar por uma coleção de botões e menus disponíveis no Office para controlar cada recurso. Ponto positivo, porque a natureza do Office 2016 o faz uma ferramenta poderosa repleta de recursos para usuários com necessidades muito específicas, mas essa mesma natureza prolífica pode confundir os usuários que precisam de coisas mais básicas. As novidades sinalizam uma forma de tornar o Office 2016 ainda mais atraente para usuários corporativos que se voltaram para os produtos concorrentes. A reação da concorrência foi rápida: a Google anunciou nesta segunda-feira que tem 1 milhão de usuários corporativos ativos usando seu produto de colaboração e storage. Depois do lançamento desta terça-feira, haverá um bocado de notícias no horizonte. Como parte da transição de prover o Office como serviço através do Office 365, a Microsoft vai manter-se ativa na liberação de updates frequentes do novo Office. Algumas novidades incluem suporte a coautoria em tempo real também para o PowerPoint, e o novo serviço da empresa, GigJam, que facilita o trabalho em grupo por meio de múltiplos serviços e aplicações. O GigJam foi anunciado hoje como versão beta e a Microsoft informa que pretende torná-lo disponível para o Office 365 em algum ponto do próximo ano. FONTE: idgnow.com.br/ti-corporativa/2015/09/22/microsoft-office-2016-chega-para-windows-com-mais-foco-em-colaboracao/

MOZILLA LIBERA A VERSÃO BETA DO NOVO "MODO SECRETO" DO FIREFOX

O novo “modo secreto” do Firefox está um pouco mais perto de tornar-se um recurso padrão do conhecido navegador da Mozilla. As versões beta mais recentes do browser para PCs (Windows, Mac e Linux) e Android vem com um novo recurso chamado Tracking Protection. Verdadeiro ao seu nome, o Tracking Protection bloqueia ativamente o rastreamento de terceiros. Para fazer isso, o recurso evita o carregamento de qualquer elemento de uma página que possa ter código criado para rastrear seus hábitos de navegação. Vamos dizer que você visita regularmente um site de notícias que sempre mostra um anúncio fornecido por uma empresa de publicidade terceirizada, e que esse anúncio sempre aparece à direita das notícias. Com o Tracking Protection habilitado, você pode deixar de ver esses anúncios caso eles tenham cookies feitos para te seguir pela web. Vale notar que o Tracking Protection não é exatamente um substituto para os ad-blockers ou plug-ins como o Ghostery. O novo recurso só funciona quando você está no modo de Navegação Privada do Firefox. O Chrome oferece um recurso parecido conhecido como modo incógnito, apesar de essa ferramenta não bloquear rastreadores de terceiros. Para testar a novidade, é preciso baixar e instalar o Firefox Beta (aviso: isso pode apagar sua instalação estável do navegador). Uma vez que estiver pronto, clique no ícone de menu “hambúrguer” e selecione New Private Windows/Nova Janela Privada. Quando a janela de navegação abrir, você deverá ver uma mensagem em tela cheia que diz que o Tracking Protection está habilitado. Essa mensagem aparece sempre que você abrir uma nova aba ao navegar no modo privado. Depois, basta navegar a web normalmente sem se preocupar em ser rastreado por anunciantes. No entanto, tenha em mente que essa é uma versão beta e podem acontecer alguns bugs ocasionalmente. FONTE: idgnow.com.br/internet/2015/09/24/mozilla-libera-beta-do-novo-modo-secreto-de-verdade-do-firefox/

CONHEÇA AS ESTRANHAS ESTRELAS ROMBUDAS E SEUS DISCOS QUE BRILHAM

Modelo da estrela Be Achernar, ilustrando duas das peculiaridades dessa classe de estrelas: a expansão do equador estelar e o direcionamento do fluxo luminoso para os polos.

Estrelas Be

Astrônomos brasileiros e canadenses estão começando a lançar algumas luzes sobre um dos tipos mais estranhos de estrela que se conhece. As estrelas do tipo Be são objetos tão estranhos que mesmo astrofísicos não envolvidos diretamente em seu estudo se surpreendem com a sua descrição. É que esse tipo de astro possui ao redor um disco de plasma - átomos, íons positivos e elétrons - que, embora não seja o material capaz de dar origem a planetas, pode ser descrito pelos mesmos princípios físicos que regem os discos protoplanetários, como aquele que deu origem ao nosso Sistema Solar. "Como essas estrelas giram muito rapidamente, o material da superfície do equador estelar fica fracamente ligado à estrela, em termos gravitacionais, e acaba sendo ejetado. Esse material aglomera-se no plano equatorial, formando o disco que estudamos em colaboração com os colegas canadenses", explica o astrônomo Alex Cavaliéri Carciofi, da USP.

Estrelas oblatas

Apesar de estranhas, as estrelas Be não são raras. São até muitos comuns em nossa galáxia, sendo conhecidas várias delas bem próximas do Sistema Solar, a distâncias da ordem de 100 anos-luz. Segundo Alex, elas são muito grandes, com massas equivalentes a 15 ou 20 vezes a massa do Sol, giram muito rapidamente, o que as faz perder a forma esférica, tornando-se rombudas - o termo técnico é "oblata". "Sua forma fica tão achatada que a distância do equador estelar ao centro da estrela pode superar em 50% a distância de cada um dos polos estelares ao centro", descreveu o pesquisador. O que a equipe fez foi desenvolver um modelo mais preciso das estrelas Be do que o modelo originalmente proposto por astrônomos japoneses há quase 25 anos. Segundo Alex, os resultados foram empolgantes. Partindo do modelo original, foi desenvolvido um novo modelo, bem mais sofisticado, batizado de "modelo de disco de decréscimo viscoso". "Quanto mais avançamos na comparação das observações com esse modelo, mais ele se mostrou consistente para explicar a estruturação dos discos," disse o pesquisador.

Discos iluminados

Estrelas massivas como as Be geralmente evoluem para eventos catastróficos, explodindo como supernovas, ejetando formidável quantidade de matéria para o espaço exterior, e colapsando finalmente como buracos negros. Mas, bem antes desse final espetacular, elas formam seus discos de plasma, que podem se estender a distâncias comparáveis à da órbita da Terra ou até mesmo à da órbita de Marte. Sendo formados de material ejetado pelas estrelas, os discos são compostos pelos mesmos elementos que as constituem: basicamente hidrogênio e hélio, com quantidades bem menores de carbono, nitrogênio, oxigênio e ferro. Devido à irradiação das estrelas Be, os discos alcançam temperaturas muito elevadas, de 10 mil a 20 mil graus, e também passam a emitir luz. "Suas densidades são altas comparativamente aos parâmetros astrofísicos. No entanto, são mais baixas do que o mais extremo vácuo que pode ser produzido em laboratório na Terra. Isso porque a nossa atmosfera é ultradensa em termos astronômicos. Como seria de esperar, a densidade dos discos decai expressivamente, da região contígua à estrela à borda exterior", concluiu Alex. Bibliografia: Multi-technique testing of the viscous decretion disk model. I. The stable and tenuous disk of the late-type Be star. R. Klement, A. C. Carciofi, Th. RIVINIUS, D. Panoglou, R. G. Vieira, J. E. Bjorkman, S. Stefl, C. TYCNER, D. M. Faes, D. Korcakova, A. Muller, R. T. Zavala, M. Cure. Astronomy & Astrophysics. Vol.: Accepted Paper. fonte: inovacaotecnologica.com.br/noticias/noticia.php?artigo=estranhas-estrelas-rombudas-seus-discos-brilham&id=010130150921

CÂMERAS 2D PODEM SER REPROGRAMADAS PARA CAPTURAR 3D

O efeito tridimensional é capturado a partir de uma única tomada de uma câmera 2D, ajustando rapidamente seus mecanismos internos.

3D de captura única

Transformar uma câmera digital comum em uma câmera digital 3D parece um grande negócio. Foi justamente isso que demonstrou ser possível Patrick Llull e seus colegas da Universidade Duke, nos EUA. "Cenas reais são em 3 dimensões e elas são normalmente filmadas capturando-se múltiplas imagens focadas em várias distâncias," explicou Llull. "Várias abordagens únicas para melhorar a velocidade e a qualidade de captura de imagens 3D foram propostas durante as últimas décadas. Cada abordagem, no entanto, sofre degradações permanentes na qualidade da imagem 2D e/ou exigem uma grande complexidade do hardware." Esses obstáculos foram superados com o desenvolvimento de um sistema adaptativo que consegue extrair com precisão dados de profundidade a partir das imagens 2D, sem perder a qualidade da imagem original e sem uma mudança dramática do equipamento, como mudanças seguidas de lentes.

Paralaxe

A maioria das câmeras digitais vem equipada com sistema de estabilização da imagem. Esse mecanismo funciona medindo a inércia ou o movimento da câmera e compensando esse balanço movimentado rapidamente a lente - são feitos vários ajustes por segundo. O que a equipe descobriu é que este mesmo hardware pode alterar o processo de captura de imagem, gravando informações adicionais sobre a cena. Com software e processamento adequados, esses dados adicionais podem dar as informações necessárias para calcular a terceira dimensão, simulando o sistema tradicional de captura de imagens 3D, que usa dois sensores para simular a paralaxe que permite que os dois olhos humanos gerem uma imagem tridimensional. O sistema eletrônico da câmera foi reprogramado para executar 3 passos em sequência contínua: ajustar o foco, coletar a luz durante um período de tempo e ativar o módulo de estabilização, que ajusta a lente para mover a imagem com relação a um ponto. Isto, em conjunto com o ajuste focal, integra a informação em uma única captura, de uma forma que preserva os detalhes da imagem e obtém uma resposta óptica diferente a cada posição do foco. As imagens, que teriam sido capturadas em várias configurações focais, são codificadas diretamente nesta medição com base no ponto em que elas ocupam na profundidade de campo.

3D e 2D renovado

Embora o experimento tenha sido realizado em condições controladas de laboratório, os pesquisadores acreditam que a técnica poderá ser aplicada em produtos de consumo. E, além de permitir a captura de imagens 3D, a técnica pode melhorar as funções das máquinas atuais. Se for integrada em câmeras comerciais e outras tecnologias ópticas, esta técnica de visualização pode melhorar funções essenciais dos atuais equipamentos - como a própria estabilização de imagem - e aumentar a velocidade do foco automático, melhorando a qualidade das fotografias. Bibliografia: Image translation for single-shot focal tomography. Patrick Llull, Xin Yuan, Lawrence Carin, David J. Brady. Optica. Vol.: 2, 9, 822. DOI: 10.1364/optica.2.000822. fonte: inovacaotecnologica.com.br/noticias/noticia.php?artigo=cameras-2d-reprogramadas-capturar-3d&id=010110150922

COMO UMA TINTA PODE FACILITA O CORTE DE UM METAL?

O fluxo sinuoso aparece destacado na imagem à esquerda. À direita, a redução repentina da força necessária ao corte quando a ferramenta chega à área pintada.

Fluxo sinuoso

Engenheiros da Universidade Purdue, nos EUA, descobriram um tipo de deformação desconhecida até agora, que ocorre nos metais quando eles são submetidos a estresse, o que inclui operações de dobra e corte. O fenômeno, batizado de fluxo sinuoso, foi descoberto usando microfotografias de alta velocidade e simulações computadorizadas. Ao ser cortado, o metal se deforma em dobras, contrariando as teorias anteriores, que afirmavam que o metal se cisalharia uniformemente - as dobras lembram as que ocorrem no mel sendo derramado em uma vasilha. "Quando o metal se rompe durante um processo de corte, ele forma essas dobras finamente espaçadas, que pudemos ver pela primeira vez somente por causa da observação direta em tempo real," disse o professor Ho Yeung.

Dobraduras metálicas

A boa notícia é que a observação permitiu descobrir uma forma de evitar as dobraduras no metal. E a supressão desse fenômeno poderá aumentar a eficiência de todos os processos de trabalhar metais, do corte de chapas à usinagem e torneamento. Além da melhor qualidade do processamento, haverá um ganho substancial no consumo de energia, uma redução drástica na força que deve ser aplicada às peças e um menor tempo de processamento.

Tinta mágica

Os experimentos mostraram que a força de corte - a força aplicada por uma prensa, por exemplo - pode ser reduzida em 50% simplesmente pintando a superfície metálica com uma tinta comum, o que, por razões ainda desconhecidas, suprime o fenômeno do fluxo sinuoso. Mais estranho ainda, a pintura deve ser feita não na superfície que está sendo trabalhada, mas no verso dela, no outro lado da chapa. "Isto pode soar estranho, até mesmo ridículo, para as pessoas da área, porque o corte não está acontecendo na superfície pintada, ele está ocorrendo a uma certa profundidade abaixo," comentou o professor Koushik Viswanathan. Mas o importante é que funciona. Para tirar a prova, a equipe pintou apenas metade de uma chapa: quando a ferramenta de corte chegou na porção pintada, a força aplicada caiu imediatamente para a metade. A equipe afirma que poderá haver muitos ganhos adicionais quando o fluxo sinuoso for completamente compreendido - assim como sua supressão quase por mágica -, alcançando praticamente toda a indústria metal-mecânica. Bibliografia: Sinuous flow in metals Ho Yeung, Koushik Viswanathan, Walter Dale Compton, Srinivasan Chandrasekar. Proceedings of the National Academy of Sciences. Vol.: 112 no. 32, 9828-9832. DOI: 10.1073/pnas.1509165112. fonte: inovacaotecnologica.com.br/noticias/noticia.php?artigo=tinta-reduz-energia-cortar-metais-pela-metade&id=010170150921

CONHEÇA MATERIAL MEIO DIAMANTE E MEIO BORO QUE CORTA QUALQUER COISA

Amostras dos cristais de diamante-boro, afiados para fazer ferramentas de corte de alto rendimento e baixo desgaste.

Duro para cortar

O diamante e o boro sempre estiveram presentes em todos os páreos em busca do título de material mais duro do mundo. Agora os dois resolveram se unir para bater novos recordes e criar ferramentas capazes de cortar qualquer material industrial. Pei Wang e seus colegas das universidades Sichuan (China) e Nevada (EUA) sintetizaram um híbrido de diamante e boro, um material superduro que promete melhor rendimento e maior durabilidade nas operações de corte e desbaste.

Liga de diamante e boro

Os diamantes são para sempre, exceto quando eles oxidam enquanto cortam metais como ferro, cobalto, níquel, cromo ou vanádio. O nitreto de boro cúbico é quimicamente mais inerte, mas apenas até cerca de metade da dureza do diamante. Mas ninguém havia conseguido juntar os dois em busca do melhor de cada um. "O diamante e o nitreto de boro cúbico poderiam facilmente formar ligas que podem potencialmente preencher a lacuna de desempenho por causa de sua afinidade nas redes atômicas e na característica de ligação covalente. Entretanto, a ideia nunca havia sido demonstrada na prática porque as amostras obtidas em estudos anteriores eram pequenas demais para que se pudesse testar seu desempenho prático," disse o professor Duanwei He. Foi necessário então desenvolver uma nova técnica de síntese.

Corte em alta velocidade

O diamante e o nitreto de boro foram misturados de forma homogênea e aquecidos a vácuo a 1026 °C durante 2 horas. Sob alta pressão e ainda mais calor (1725 °C), o material formou grânulos de 3,5 milímetros, que foram então polidos e afiados para formar ferramentas de corte. A liga apresentou menor desgaste e um desempenho nas operações de corte em alta velocidade superior ao do boro e do diamante policristalinos disponíveis comercialmente. E o rendimento é ainda maior em determinados materiais, por exemplo, no corte de pedras ornamentais duras, como o granito. Ainda que grânulos de 3,5 milímetros sejam grandes em termos de materiais usados para revestir ferramentas, a equipe pretende chegar à casa dos centímetros, quando eles consideram que a tecnologia estará pronta para ir ao mercado. Bibliografia: Diamond-cBN Alloy: a Universal Cutting Method. Pei Wang, Duanwei He, Liping Wang, Zili Kou, Yong Li, Lun Xiong, Qiwei Hu, Chao Xu, Li Lei, Qiming Wang, Jing Liu, Yusheng Zhao. Applied Physics Letters. Vol.: 107, 101901. DOI: 10.1063/1.4929728. FONTE: inovacaotecnologica.com.br/noticias/noticia.php?artigo=meio-diamante-meio-boro-mas-corta-qualquer-coisa&id=010170150924

CAPACITOR DE CELULOSE ARMAZENA MAIS ENERGIA QUE BATERIAS

O capacitor de celulose é extremamente leve - um pedaço do material pode ser sustentado por uma pena.

Nanocelulose

A celulose pode ser a base de uma nova classe de dispositivos de armazenamento de energia. Pesquisadores da Universidade McMaster, no Canadá, demonstraram que a celulose reduzida a fibras de dimensões nanométricas - também conhecida como nanocelulose - torna-se um elemento interessante para a fabricação de capacitores de alta densidade energética. Xuan Yang e seus colegas construíram capacitores tridimensionais aprisionando nanopartículas funcionais dentro das fibras de uma espuma feita com nanocelulose. A espuma é fabricada de forma simples, em uma única etapa, a partir de cristais de celulose. Vista ao microscópio, ela lembra um monte de arroz não cozido, mas cujos grãos são "colados" em pontos aleatórios, deixando um monte de espaço livre para acomodar as nanopartículas funcionais. As nanopartículas são uma mistura de nanotubos de carbono e dióxido de manganês.

Energia sustentável

Uma das grandes vantagens do novo dispositivo de armazenamento de energia é que, além da elevada resistência e da flexibilidade da celulose, o capacitor resultante é muito leve, o que é interessante para os carros elétricos, por exemplo. Embora ainda sejam necessários mais desenvolvimentos, os capacitores de espuma de nanocelulose apresentaram uma maior densidade de energia e um recarregamento mais rápido do que as baterias recarregáveis. "Em última instância, o objetivo desta pesquisa é encontrar formas de alimentar as tecnologias atuais e futuras de uma forma mais eficiente e mais sustentável," disse a professora Emily Cranston, coordenadora da equipe. Quanto ao uso da celulose no campo da energia, além das baterias de papel, outras equipes já demonstraram a possibilidade de fabricar baterias com madeira e sal. Bibliografia: Cellulose Nanocrystal Aerogels as Universal 3D Lightweight Substrates for Supercapacitor Materials. Xuan Yang, Kaiyuan Shi, Igor Zhitomirsky, Emily D. Cranston. Advanced Materials. Vol.: Early View Article. DOI: 10.1002/adma.201502284. fonte: inovacaotecnologica.com.br/noticias/noticia.php?artigo=capacitor-celulose-armazena-mais-energia-baterias&id=010115150925

ESTUDO INDICA QUE O ALZHEIMER PODE SER TRANSMISSÍVEL

Publicação da revista científica Nature indica que pode ser possível transmitir a Doença de Alzheimer. A pesquisa foi realizada por cientistas da University College London e foi realizada por meio de autópsias de cérebros de oito pacientes. O Alzheimer costuma ocorrer em pessoas de idade avançada e acontece pela “morte” de células cerebrais e do encolhimento do órgão, prejudicando as funções. Já a Doença de Creutzfeldt-Jakob (CJD) acomete jovens e também afeta o cérebro, ocasionando demência e distúrbios do movimento. Segundo os médicos, há duas formas de detectar o Alzheimer por meio de exames: encontrar um aglomerado de fragmentos proteicos da proteína beta-amiloide (placas amiloides) ou um emaranhado de uma proteína chamada tau. Para a descoberta, os cientistas ingleses estudaram o cérebro de pacientes recém-falecidos em função do CJD. Todos contraíram este mal através de hormônios do crescimento injetados quando ainda eram crianças. Destes oito corpos, sete apresentavam depósitos amiloides, um dos sinais de Alzheimer. No entanto, todos eram muito jovens para sofrer deste mal de maneira “natural”. Na teoria, amiloides podem ser transmitidos acidentalmente em procedimentos médicos e cirúrgicos. Os cientistas, então, entenderam que os hormônios ingeridos podem ter transmitido as pequenas quantidades de beta-amiloides, além das proteínas que causaram o CJD. Este é um estudo prévio, por isso, não se pode concluir que os hormônios foram a causa do acúmulo amiloide. Mas mesmo que seja confirmado o risco de transmissão do Alzheimer, há fatores mais determinantes, como idade, genética e hábitos. fonte: blogdasaude.com.br/saude-fisica/2015/09/10/estudo-indica-que-o-alzheimer-pode-ser-transmissivel/

COMO OS EXAMES DE DNA AUXILIAM NA SOLUÇÃO DE CRIMES

Em seriados e filmes policiais, é bastante comum vermos exames de DNA identificarem suspeitos com uma tremenda velocidade: é só achar uma mísera pista na cena do crime e bingo! O computador encontra nome, sobrenome, endereço, telefone e até se o dono da amostra em questão está em dia com o Imposto de Renda. Como isso funciona de verdade? Bem, o teste não sai em minutos e ele não tem uma base de dados tão completa como esta. Mas ele não chega a demorar semanas, como pode-se acreditar, e sim apenas algumas horas – menos de um dia, em grande parte dos casos. E já existem estudos e pesquisas que batalham para tornar realidade o que se pode chamar de um “retrato falado biológico”, no qual características físicas do indivíduo são encontradas nas amostras.

O teste de DNA

Primeiro, vamos entender o que é o exame de DNA e como ele é feito. O DNA (ou ADN, de ácido desoxirribonucleico, em português) é um composto orgânico que contêm o nosso banco de dados genéticos, por assim dizer, cuja função é manter informações para produzir proteínas e coordenar o desenvolvimento dos seres vivos e sua hereditariedade. Apesar de nós, humanos, termos o DNA bem parecido entre um indivíduo e outro — na verdade, até chimpanzés possuem 95% do DNA igual ao nosso — cada pessoa tem características próprias em seu próprio código genético, fazendo dele uma identificação biológica única. O DNA é formato por blocos conhecidos por nucleotídeos, formados por fosfato(PO4), açúcar e bases nitrogenadas Adenina, Timina, Guanina e Citosina. Cada DNA possui uma ordem própria, determinando o código genético individual. O teste de DNA busca identificar traços semelhantes ou idênticos em outros seres humanos. Semelhantes, no caso de testes de paternidade que avaliam códigos genéticos distintos, mas que contenham traços presentes também no DNA do pai e/ou da mãe (no caso com ordens de nucleotídeos repetidas tanto no pai e no filho); ou idênticos, no caso de testes criminais, que buscam uma combinação exata de uma amostra encontrada em uma cena do crime, por exemplo. Tudo no nosso corpo contêm DNA — o sangue, as células, a saliva, a pele… Desta forma, tudo o que tocamos pode deixar rastros desta nossa identidade biológica. Ou seja, tocar em uma mesa pode deixar vestígios da sua identidade. Restos de saliva em um copo? Também, e por aí vai. Logo, sangue em uma cena de crime é uma ótima fonte de DNA. Mas quanto dele é necessário para conseguir um resultado? “Uma gota já é suficiente”, explica Celso Teixeira Mendes Junior, docente responsável pela disciplina de Biologia Molecular Forense da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto da Universidade de São Paulo. “A partir de qualquer medida já é praticamente possível obter uma quantidade de DNA”, explica. Mendes conta que são necessários de um a dois nanogramas de DNA para se obter um resultado coerente — em apenas 1 ml de sangue é possível encontrar de 20.000 a 40.000 nanogramas. “É muito fácil determinar o DNA de alguém”, diz. Mas embora seja fácil adquirir um fio de cabelo, uma gota de sangue ou de saliva bucal – todos materiais que podem servir de amostra – a qualidade deste material nem sempre é adequada e pode complicar um pouco os resultados. Além do protocolo necessário para uma coleta adequada — trajar equipamento de proteção adequado, estéril e descartável e o registro de cada amostra — o ambiente e as condições em que as amostras são encontradas também podem interferir (e muito) nos resultados. “Um cadáver enterrado por exemplo, encontrado em altas temperaturas, exposto a radiação ultravioleta e já com as enzimas que putrefazem a fauna do cadáver em ação são exemplos do que pode interferir as amostras”, explica Mendes. E como identificar um cadáver já em avançados estágios de putrefação? Com amostras familiares ou próprias. Mendes cita o recente acidente da Gol, no Mato Grosso. “Em casos como estes, fazemos a identificação por amostras próprias, como a escova de dentes das vítimas, que contém uma parcela do DNA, ou com exames de paternidade, comparando amostras das vítimas com amostras de seus pais”, explica. Mas, apesar de os resultados destes testes estarem longe de serem feitos em minutos, eles podem ser podem ser revelados de meio período a um, ou seja: em um dia de trabalho já podemos encontrar um resultado. “O processo completo demora, por volta, de 4h a 8h, com uma amostra adequada”, explica Mendes. Mas em casos que a amostra não é ideal, ou que apresente mais de um DNA, isso pode levar mais tempo. “Já existem equipamentos que conseguem apresentar resultados em cerca de 3h, mas eles não são tão comuns”.

Base de dados

Em 2012, uma emenda à Lei N˚ 12.654 criou o banco de perfil genético: Art. 2° A Lei n° 12.037, de 1° de outubro de 2009, passa a vigorar acrescida dos seguintes artigos: “Art. 5°-A. Os dados relacionados à coleta do perfil genético deverão ser armazenados em banco de dados de perfis genéticos, gerenciado por unidade oficial de perícia criminal. § 1° As informações genéticas contidas nos bancos de dados de perfis genéticos não poderão revelar traços somáticos ou comportamentais das pessoas, exceto determinação genética de gênero, consoante as normas constitucionais e internacionais sobre direitos humanos, genoma humano e dados genéticos. § 2° Os dados constantes dos bancos de dados de perfis genéticos terão caráter sigiloso, respondendo civil, penal e administrativamente aquele que permitir ou promover sua utilização para fins diversos dos previstos nesta Lei ou em decisão judicial. Ela foi regulamentada no ano passado e prevê a coleta de amostras de DNA de condenados a crimes hediondos e o envio destas para a Rede Integrada de Bancos de Perfis Genéticos(RIBPG), segundo informações do G1. Só no mês passado, a Polícia Civil do Distrito Federal coletou amostras de 70 presos. Isso, segundo a polícia, pode ajudar a solucionar crimes. Entretanto, a base genética brasileira registra apenas casos de crimes hediondos — crimes efetuados por ex-detentos ou fugitivos, por exemplo, seriam mais fáceis de solucionar, mas apenas estes. Entretanto, no Reino Unido, país dono de uma base de dados com mais de 6 milhões de amostras individuais (são adicionadas cerca de 30.000 amostras por mês), registra o DNA de amostras colhidas em cenas de crime, de suspeitos da polícia e, na Inglaterra e em País de Gales, até mesmo de qualquer pessoa presa ou detida pela polícia. Neste caso, até mesmo um indivíduo detido por dirigir alcoolizado, por exemplo, teria a amostra registrada. E, no caso dele cometer um crime no futuro e deixar um pouco do próprio DNA na cena do crime, a polícia teria como encontrá-lo com maior facilidade. É defendido, até mesmo, que todo cidadão e visitante do Reino Unido ofereça amostras de DNA para poder continuar no país.
Teste de DNA

Retrato falado biológico

Por mais útil que o banco de dados genético possa ser, ele ainda é pequeno em nosso país e limitado a cercos casos – não podemos depender dele. Mendes produz um estudo que promete identificar características físicas com base em amostras, o que, em tese, pode ajudar a polícia a identificar criminosos. “O meu estudo foca na pigmentação. Com uma amostra de sangue, podemos auxiliar a polícia se o suspeito é uma pessoa com tom de pelo branco ou negro, por exemplo”, explica Mendes. O pesquisador explica que, além dele, outros grupos estudam outras maneiras de identificação com base no DNA como cor dos olhos, altura, deformações faciais, etc, e existe até mesmo a identificação por ancestralidade: saber as origens do indivíduo dono da amostra. O que, nos casos de ancestralidade, nem sempre é garantia de ajuda. De qualquer forma, este tipo de identificação, apesar de ainda não ser comum, já é uma realidade aos laboratórios. Mendes está há cerca de dois anos trabalhando na pesquisa, e apenas no ano passado conseguiu investimentos da FAPESP para acelerá-la com o auxílio de investimentos, materiais e máquinas mais modernas. Ele trabalha com amostras de doadores voluntários, analisando cerca de 500 mil pares de base de DNA de cada uma — um corpo humano possui cerca de seis bilhões de pares de base. A pesquisa, no entanto, ainda não tem data para finalização. Os exames executados em séries e filmes podem ser um tanto fantasiosos, mas a ciência da vida real não está tão longe de se aproximar (ou até se igualar) deles assim. FONTES: GIZMODO BRASIL // http://ufos-wilson.blogspot.com.br/2015/09/como-os-exames-de-dna-auxiliam-na.html

INTELIGÊNCIA ARTIFICIAL: MÁQUINAS QUE PENSAM DEVEM SURGIR ATÉ 2050

Especialistas acreditam que a inteligência das máquinas se equiparará à de humanos até 2050, graças a uma nova era na sua capacidade de aprendizado. Computadores já estão começando a assimilar informações a partir de dados coletados, da mesma forma que crianças aprendem com o mundo ao seu redor. Isso significa que estamos criando máquinas que podem ensinar a si mesmas a participar de jogos de computador – e ser muito boas neles – e também a se comunicar simulando a fala humana, como acontece com os smartphones e seus sistemas de assistentes virtuais. Fei-Fei Li, professora da Universidade de Stanford e diretora do laboratório de visão computacional da instituição, passou os últimos 15 anos ensinando computadores a enxergar. Seu objetivo é criar olhos eletrônicos para robôs e máquinas e torná-los capazes de entender o ambiente em que estão. Metade da capacidade cerebral de um humano é usada no processamento visual, algo que fazemos sem um grande esforço aparente. "Ninguém diz para uma criança como enxergar. Ela aprende isso por meio de experiências e exemplos do mundo real", disse Li em sua palestra na conferência TED neste ano. "Se você pensar, os olhos de uma criança são como um par de câmeras biológicas que tiram fotografias a cada 200 milissegundos, o tempo médio dos movimentos oculares. Então, aos 3 anos de idade, uma criança teria centenas de milhões de fotos. Isso é um grande treinamento." Ela decidiu ensinar computadores da mesma forma. "Em vez de só me concentrar em criar em algoritmos cada vez melhores, minha ideia é dar aos algoritmos o treinamento que crianças recebem por meio de experiências, quantitativamente e qualitativamente."

Treinamento

Em 2007, Li e um colega de profissão deram início a uma tarefa desafiadora: filtrar e identificar 1 bilhão de imagens obtidas na internet para que sirvam de exemplos do que é o mundo real para um computador. Eles pensavam que, se uma máquina visse imagens suficientes de uma determinada coisa, como um gato, por exemplo, seria capaz de reconhecer isso na vida real. Eles pediram ajuda em plataformas de colaboração online e contaram com o apoio de 50 mil pessoas de 167 países. No fim, tinham a ImageNet, uma base dados de 15 milhões de imagens relativas a 22 mil tipos de objetos, organizada de acordo com seus nomes em inglês. Isso se tornou um recurso valioso usado por cientistas ao redor do mundo que buscam conferir aos computadores uma forma de visão. Todos os anos, a Universidade de Stanford realiza uma competição, convidando empresas como Google, Microsoft e a chinesa Baidu, para testar a performance de seus sistemas com base na ImageNet. Nos últimos anos, estes sistemas tornaram-se especialmente bons em reconhecer imagens, com uma margem de erro média de 5%. Para ensinar computadores a reconhecer imagens, Li e sua equipe usaram redes neurais, nome dado a programas de computadores feitos a partir de células artificiais que funcionam de forma muito semelhante à de um cérebro humano. Uma rede neural dedicada a interpretar imagens pode ter desde algumas centenas a até milhões destes neurônios artificiais, dispostos em camadas. Cada camada reconhece diferentes elementos de uma imagem. Uma aprende que uma imagem é feita de pixels. Outra reconhece cores. Uma terceira determina seu formato e assim por diante. Ao chegar à camada superior – e as redes neurais hoje têm até 30 camadas –, esta rede é capaz de ter uma boa noção do que se trata a imagem. Em Stanford, uma máquina assim agora escreve legendas precisas para vários tipos de imagens, apesar de ainda cometer erros, como, por exemplo, dizer que uma foto de um bebê segurando uma escova de dente foi identificada como "um menino segurando um taco de beisebol". Apesar de uma década de trabalho duro, disse Li, esta máquina ainda tem a inteligência de uma criança de 3 anos. E, ao contrário desta criança, ela não é capaz de compreender contextos. "Até agora, ensinamos um computador a ver objetivamente ou a nos contar uma história simples quando vê uma imagem", afirmou Li. Mas, quando pede para que a máquina avalie uma imagem de seu filho em uma festa de família, o computador simplesmente diz se tratar de um "menino de pé ao lado de um bolo". "O computador não vê que é um bolo especial que é servido apenas na época da Páscoa", explicou Li. Este é o próximo passo de sua pesquisa no laboratório: fazer com que máquinas entendam uma cena por completo, além de comportamentos humanos e as relações entre diferentes objetos. A meta final é criar robôs que "enxergam" para que auxiliem em cirurgias, buscas e resgates e que, no fim das contas, promovam melhorias em nossas vidas, segundo Li.

Progresso

O complexo trabalho realizado em Stanford tem como base o lento progresso obtido nesta área nos últimos 60 anos. Em 1950, o cientista da computação britânico Alan Turing já especulava sobre o surgimento de uma máquina pensante, e o termo "inteligência artificial" foi cunhado em 1956 pelo cientista John McCarthy. Após alguns avanços significativos nos anos 1950 e 1960, quando foram criados laboratórios de inteligência artificial em Stanford e no Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês), ficou claro que a tarefa de criar uma máquina assim seria mais difícil do que se pensava. Veio então o chamado "inverno da inteligência artificial", um período sem grandes descobertas nesta área e com uma forte redução no financiamento de suas pesquisas. Mas, nos anos 1990, a comunidade dedicada à inteligência artificial deixou de lado uma abordagem baseada na lógica, que envolvia criar regras para orientar um computador como agir, para uma abordagem estatística, usando bases de dados e pedindo para a máquina analisá-los e resolver problemas por conta própria. Nos anos 2000, um processamento de dados mais veloz e a grande oferta de dados criaram um ponto de inflexão para a inteligência artificial, fazendo com que esta tecnologia esteja presenta em muitos dos serviços que usamos hoje. Ela permite que a Amazon recomende livros, o Netflix indique filmes e o Google ofereça resultados de buscas mais relevantes. Algoritmos passaram a estarem presentes nas negociações feitas em Wall Street, indo às vezes longe demais, como em 2010, quando um algoritmo foi apontado como culpado por uma perda de bilhões de dólares na Bolsa Nova York. Também serviu de base para os assistentes virtuais de smartphones, como a Siri, da Apple, o Now, do Google, e a Cortana, da Microsoft. Neste momento, máquinas assim estão aprendendo em vez de pensar. É alvo de controvérsia se é possível programar uma máquina para pensar, já que a complexa natureza do pensamento humano tem intrigado cientistas e filósofos há séculos. E ainda assim restarão elementos da mente humana, como sonhar acordado, por exemplo, que máquinas nunca serão capazes de replicar. Ainda assim, a habilidade destes computadores vem melhorando, e a maioria das pessoas concorda que a inteligência artificial está entrando em sua era de ouro e só se tornará mais eficiente aqui daqui em diante. FONTES: http://www.bbc.com // ufos-wilson.blogspot.com.br/

domingo, 20 de setembro de 2015

SONOGENÉTICA: CIENTISTAS USAM ONDAS SONORAS PARA CONTROLAR CÉLULAS CEREBRAIS

Cientistas desenvolveram uma nova maneira de ativar seletivamente células do cérebro, do coração, músculo e outras que utilizam ondas ultrassônicas. A nova técnica, apelidada de “sonogenética”, tem algumas semelhanças com o uso crescente de luz para ativar as células – a optogenética. O método utiliza o mesmo tipo de ondas da medicina de ultrassom, e pode ter vantagens em relação à optogenética, particularmente quando se trata de adaptar a tecnologia para terapêutica humana. O estudo foi publicado na revista Nature Communications.

Som > luz

Em optogenética, pesquisadores acrescentam proteínas de canais sensíveis à luz aos neurônios que desejam estudar. Focando um laser sobre as células, eles podem abrir seletivamente esses canais, para ativar ou silenciar os neurônios-alvo. Porém, essa abordagem em células profundas do cérebro é difícil: normalmente, os pesquisadores têm de realizar uma cirurgia de implante de cabo de fibra óptica para atingi-las. Além disso, a luz é dispersa pelo cérebro e por outros tecidos do corpo. Sreekanth Chalasani, do Laboratório de Neurobiologia Molecular do Instituto Salk, nos EUA, autor sênior do estudo, decidiu junto com seus colegas desenvolver uma abordagem que contasse com ondas de ultrassom para fazer essa ativação, ao invés de luz. “Em contraste com a luz, ultrassom de baixa frequência pode viajar através do corpo sem qualquer dispersão”, diz. “Isso pode ser uma grande vantagem quando você quer estimular uma região profunda do cérebro, sem afetar outras regiões”, acrescenta Stuart Ibsen, pós-doutorando no Laboratório e principal autor do novo trabalho.

O experimento

Os cientistas primeiro provaram que, nos nematoides Caenorhabditis elegans, microbolhas de gás fora do verme eram necessárias para amplificar as ondas de ultrassom de baixa intensidade. “As microbolhas aumentavam e diminuíam em sintonia com as ondas”, afirma Ibsen. “Essas oscilações podiam então propagar de forma não invasiva pelo verme”. Em seguida, encontraram um canal iônico de membrana, TRP-4, que podia responder a estas ondas. Quando deformações mecânicas do ultrassom atingiam as bolhas de gás e se propagavam para o verme, faziam os canais TRP-4 se abrirem e ativarem a célula. Armados com esse conhecimento, os pesquisadores tentaram adicionar canais TRP-4 a neurônios que normalmente não os têm. Com esta abordagem, eles ativaram com sucesso neurônios que normalmente não reagem ao ultrassom.

Potencial

Como TRP-4 pode ser adicionado a qualquer tipo de célula sensível ao cálcio em qualquer organismo incluindo o dos seres humanos, a nova técnica tem potencial. Além disso, microbolhas podem ser injetadas na corrente sanguínea e distribuídas por todo o corpo, uma abordagem já utilizada em algumas técnicas de imagiologia humana. Cientistas conseguem controlar cérebro de ratos à distância O ultrassom pode, em seguida, chegar de forma não invasiva a qualquer tecido de interesse, incluindo o cérebro, ser amplificado pelas microbolhas e ativar as células desejadas através do TRP-4. “A chave será ver se isso funciona no cérebro de mamíferos”, explica Chalasani. Sua equipe já começou a testar a abordagem em camundongos. A sonogenética é uma promessa em pesquisa básica, permitindo que os cientistas estudem o efeito da ativação celular. Também pode ser útil na área terapêutica através da ativação de células afetadas por doenças. fonte: medicalxpress.com/news/2015-09-scientists-brain-cells.html

VENTILADORES GIGANTES VÃO SUGAR O CO2 DA ATMOSFERA E TRANSFORMÁ-LO EM COMBUSTÍVEL

Enquanto alguns podem associar a poluição do CO2 principalmente com plantas industriais e chaminés gigantes liberando o gás na atmosfera, a realidade é que elas não são as maiores vilãs do meio ambiente.

A culpa é do setor de transportes

Os veículos é que complicam tudo. As emissões de gás carbônico deste setor representam cerca de 24% das emissões globais de CO2 e têm a maior taxa de crescimento de todos. Embora existam tecnologias existentes para capturar gás carbônico a partir de uma pilha de fumo, por exemplo, até hoje não houve soluções para capturar o montante já liberado na atmosfera por carros, caminhões e aviões.

Mas isto está prestes a mudar

No início deste ano, a empresa de engenharia de carbono fundada e mantida por Bill Gates iniciou a construção do primeiro dispositivo de captura de gás carbônico liberado no meio ambiente. Durante anos, a empresa tem trabalhado no desenvolvimento da tecnologia que está agora pronta para ser implementada em maior escala. Tal como as árvores, a tecnologia de captura de ar prende o gás carbônico que polui os ares. No entanto, economiza muito espaço. Para fazer o mesmo trabalho que estes dispositivos, seriam necessários quilômetros e mais quilômetros de terra fértil para o plantio de árvores. Além disso, a nova tecnologia poderá ser instalada em terras improdutivas, tais como desertos. Segundo David Keith, professor da Escola de Engenharia da Universidade de Harvard (EUA) e presidente executivo da empresa de engenharia de carbono de Bill Gates, o sistema protótipo construído na Universidade British Columbia pode absorver as emissões de cerca de 14 a 15 veículos ou cerca de 100 quilos de dióxido de carbono por dia.

Como funciona

De maneira simplificada, o sistema funciona com o ar entrando na instalação através de um absorvente de CO2 líquido, que retém cerca de 80% de dióxido de carbono numa solução para processamento adicional. Depois, a ideia é que o CO2 seja recuperado a partir da solução de carbonato e integrado na produção de hidrocarbonetos líquidos que são totalmente compatíveis com a infraestrutura de transporte de hoje, mas tem baixa (ou nenhuma) concentração de carbono. A construção de ventiladores gigantes com fins de demonstração deve terminar até o final deste ano. E será o último passo para a construção de dispositivos em grande escala que, além de ter objetivo comercial, também pretende encerrar o ciclo do CO2 na natureza. fonte: bigthink.com/design-for-good/giant-fans-will-soon-suck-out-co2-from-the-atmosphere-and-turn-it-into-fuel

BURACO NEGRO É FLAGRADO ENGOLINDO PLANETA GIGANTE PELA 1° VEZ

Como praticamente todas as galáxias do universo, a galáxia NGC 4845 tem um buraco negro central. Nas últimas décadas, porém, esse buraco negro parecia adormecido, já que não dava sinais de atividade. Isso mudou recentemente, quando os cientistas flagraram o buraco negro no processo de comer um pequeno lanche. Pequeno, neste caso, se refere a um planeta maior que Júpiter. “A observação foi completamente inesperada para uma galáxia que aparentava tranquilidade por pelo menos 20 a 30 anos”, disse o principal autor do estudo, Marek Nikolajuk. Tão inesperada, de fato, que os astrônomos não estavam sequer olhando para a NGC 4845 quando fizeram a descoberta. Eles estavam usando tecnologia da ESA (agência espacial europeia) para observar uma outra galáxia, mas a NGC 4845, a 47 milhões de anos-luz de distância da Terra, estava em seu campo de visão. Então, quando os cientistas notaram chamas de raios-X brilhantes provenientes da galáxia, rapidamente voltaram sua atenção para ela. Dessa maneira, eles foram capazes de registrar este raro evento astronômico. Pesquisadores da Universidade de Genebra (Suíça) analisaram os dados coletados pela equipe e viram o brilho de luz do buraco negro no centro da NGC 4845, que tem uma massa mais de 300.000 vezes maior que o nosso sol. Quando algo é puxado para dentro de um buraco negro, o calor e a pressão de tal evento convertem tudo o que foi “engolido” – estrela ou planeta – em gás de alta energia. À medida que os gases são absorvidos pelo buraco negro, a energia a partir deles é libertada como raios-X. Assim, quando os cientistas observaram as chamas, recorreram ao XMM-Newton da ESA, instrumento utilizado por astrônomos para detectar fontes de raios-X de todo o universo. Eles examinaram o fenômeno e determinaram que a massa do planeta sendo devorado pelo buraco negro era de cerca de 14 a 30 vezes a de Júpiter – o que significa que ou era um gigante gasoso muito grande, ou uma anã marrom (corpo mais volumoso que um planeta, mas não grande o suficiente para iniciar o processo de fusão de uma estrela). O estudo também mostrou que este buraco negro gosta de brincar com a comida: a forma como a emissão se iluminou e decaiu mostra que houve um atraso de dois a três meses entre o objeto ser desintegrado e o aquecimento dos restos desse lanchinho na vizinhança do buraco negro. “Esta é a primeira vez que vimos a desintegração de um objeto subestelar por um buraco negro”, disse o pesquisador Roland Walter. “Estimamos que somente suas camadas externas foram comidas, ou cerca de 10% da massa total do objeto, e que um núcleo denso foi deixado em órbita no buraco negro”. fontes: forbes.com/sites/alexknapp/2013/04/03/scientist-catch-a-black-hole-munching-on-a-giant-planet // abc.net.au/science/articles/2013/04/03/3728673.htm

EFEITO DA MECÂNICA QUÂNTICA PARALISA ÁTOMOS NO LUGAR

O famoso paradoxo do gato de Schrödinger demonstra que um gato quântico fechado em uma caixa está vivo e morto ao mesmo tempo até que alguém abra a caixa, ponto em que ele se torna um ou o outro, tal é a estranheza da mecânica quântica. Mas se um mero ato de observação determina o resultado de um experimento, o que acontece se nós nunca desviarmos o olhar? Resposta: o tempo para. Essa é a conclusão de um novo estudo realizado por físicos da Universidade de Cornell, nos EUA. Eles construíram um experimento elaborado para demonstrar que fazer uma série de medições rápidas de átomos – o equivalente a olhar para o sistema sem piscar – essencialmente congela o sistema no lugar. É como um dos anjos que choram na série Doctor Who, aquelas estátuas assustadoras que estão “quanticamente bloqueadas”: elas só podem se mover quando não estão sendo observadas diretamente – assim como os fantasminhas daquelas fases mal assombradas de Super Mario World. Esta é a versão quântica de um dos paradoxos de Zeno, proposto pela primeira vez por um antigo filósofo grego chamado Zeno de Elea, que gostava de mexer com as suposições das pessoas. Pense desta maneira: para que uma das estátuas já referidas se desloque de um ponto a outro, ela deve primeiro atravessar metade da distância até esse ponto. Mas, para chegar a essa metade, ela deve primeiro atravessar metade da distância para essa metade, em seguida, a metade da distância para essa outra metade, e assim por diante, ad infinitum. Zeno concluiu que isso “provava” que o anjo nunca poderia ir do ponto A ao ponto B, e, portanto, o movimento era impossível. Às vezes alguns experimentos devem ser deixados no reino abstrato da filosofia. Porque é claro que é possível que o anjo vá de A para B.

Efeito Zeno Quântico

Mas, no mundo subatômico, onde a mecânica quântica reina suprema, algo muito semelhante a este paradoxo realmente ocorre. Divida o tempo em pedaços suficientemente pequenos e tudo realmente congela no lugar. Isso é conhecido como o “efeito Zeno quântico”. Na teoria do gato de Schrödinger, é o decaimento dos átomos radioativos que importa, uma vez que é isso o que provoca a liberação do veneno – ou não. Existem dois estados possíveis: A (os átomos não decaem) e B (os átomos decaem). Se nós nunca olharmos dentro da caixa, conforme o tempo passa, uma superposição de ambos os estados A e B irá surgir. É só quando olhamos para dentro que essa estranha superposição está em A ou B. Em 1977, os físicos sugeriram que, se você não parasse de olhar continuamente para a caixa, por assim dizer – ou seja, fazer medições em intervalos tão curtos que você estaria fazendo essencialmente uma medição contínua – não haveria decaimento, porque o sistema não tem tempo para evoluir para uma superposição. Em vez disso, ele se mantém em colapso de volta ao seu estado original. Então, uma panela quântica, se observada, nunca ferve. Assim como a estátua e o fantasminha do Mario também não se movem.

Acontece de verdade

Não é apenas teoria. O experimento da Cornell é apenas o mais recente em uma série de experiências que confirmam que o efeito Zeno quântico realmente acontece. (Há também um “efeito anti-Zeno”, no qual olhar para a panela quântica metafórica faz ela ferver mais rapidamente. Esta teoria também foi confirmada experimentalmente). A equipe da Cornell usou lasers para interceptar um gás de rubídio refrigerado a temperaturas super-resfriadas em uma estrutura de luz. Graças às peculiaridades da mecânica quântica, a cada momento um átomo conseguia escapar por um túnel para fora da armadilha. Mas quando eles repetidamente eletrocutaram os átomos com pulsos de laser em intervalos cada vez mais curtos – o equivalente a olhar a caixa de Schroedinger dentro de novo e de novo e de novo -, eles descobriram que isso tornava mais difícil para os átomos presos saírem para fora do túnel. Quando os intervalos tornaram-se curtos o suficiente, os átomos congelaram no lugar. fonte: gizmodo.com/quantum-weeping-angel-effect-freezes-atoms-in-place-1730914717

sábado, 19 de setembro de 2015

EMPRESAS FARMACÊUTICAS BUSCAM SUPER HUMANOS

Será que a ciência conseguirá utilizar as mutações genéticas para criar seres humanos com capacidades ampliadas? Algo como super-heróis de laboratório? Atualmente, existem 100 pessoas no mundo com esclerosteose, condição que faz com que seus ossos consigam suportar impactos que, em pessoas normais, causariam fraturas. Outros têm a capacidade de suportar muito mais dor que o restante da humanidade. Por isso, a ciência se pergunta se conseguirá reproduzir essas condições, dignas da saga popular de X-Men, para outros fins. Caroline Chen, jornalista da Bloomberg Businessweek e especializada em biotecnologia, revela, em um artigo recente, que as empresas farmacêuticas estão investindo muito dinheiro em pesquisas relativas ao assunto, com o objetivo de sintetizar mutações como as mencionadas acima, para disponibilizá-las às pessoas em forma de pastilhas, xaropes ou outra forma de medicamento. A empresa Xenon Pharmaceuticals está empenhada no desenvolvimento de fármacos contra a dor, baseados na mutação de certas pessoas, os quais competiriam com os analgésicos existentes, superando sua eficácia e evitando seus efeitos nocivos. Descobrir o funcionamento da esclerosteose poderá levar a medicamentos contra a osteoporose ou antídotos para a perda de densidade óssea da qual padecem os astronautas no espaço. E será isso possível? Os especialistas pedem atenção em relação às questões éticas que essas novas possibilidades trazem. Como será a sociedade do futuro, na qual algumas pessoas terão acesso a superpoderes dados pela ciência? FONTE: megaarquivo.com/2015/09/14/11-782-empresas-farmaceuticas-buscam-super-humanos/

CIENTISTAS TESTAM NOVO TRATAMENTO PARA O CHOQUE SÉPTICO

A sepse é uma infecção geral do organismo, causada por germes patogênicos e que pode ser fatal. De acordo com a National Institutes of Health, a doença afeta mais de um milhão de pessoas e mata metade delas todo ano nos Estados Unidos. Apesar de ainda não haver nenhum tratamento para a sepse, ou o choque séptico, cientistas do Instituto Wyss, de Harvard, estão trabalhando nisso. O tratamento, que está em fases de teste, se baseia em um sistema de diálise que limpa o sangue de patógenos venenosos. Esse sistema coloca o sangue do paciente para circular através de um tubo de malha fibrosa coberto com uma proteína, a fcMBL. Essa proteína se liga ao açúcar que fica nas paredes dos patógenos e imobiliza-os, deixando o sangue limpo para trás. Em entrevista à Reuters, Michael Super, cientista senior da equipe, afirmou que eles estão fazendo isso como uma forma de filtro, para que, depois de limpo, o sangue possa voltar para o paciente. Em uma das fases de teste, em que ratos eram usados como cobaias, o tratamento foi efetivo em 99% dos casos. No momento, os pesquisadores estão conduzindo os testes em animais maiores e esperam poder testar em humanos em breve. FONTE: megaarquivo.com/2015/09/14/11-780-saude-cientistas-testam-novo-tratamento-para-o-choque-septico/

CIDADE BÍBLICA ENIGMÁTICA É ENCONTRADA SUBMERSA EM UM LAGO

Pesquisadores russos encontraram vestígios de uma antiga civilização, perdida debaixo das águas de um lago gigante, onde teria sido enterrado Mateus, um dos doze apóstolos de Cristo. Trata-se de uma descoberta feita por especialistas da Universidade Estadual de Tomsk, na Rússia, que conseguiram descobrir mais de 200 artefatos, com mais de 2.500 anos de idade, submersos no lago Issyk-Kul. De acordo com os pesquisadores seriam vestígios da cultura Saka desaparecida. Entre os vários objetos recolhidos, destacam-se vasos de cerâmica, inscritos com palavras dos idiomas armênio e sírio, o que, se comprovado, confirmaria a teoria que, nas proximidades do lago, existiu um antigo monastério armênio, onde estariam guardadas relíquias de Mateus Evangelista, um dos apóstolos de Cristo. “Muitos cristãos afirmam que os restos do apóstolo Mateus estão na catedral de Salerno, na Itália. Porém, a igreja ortodoxa tem uma opinião diferente: depois de uma morte cruel, seu corpo teria sido escondido por seus seguidores. Após escaparem das perseguições em Roma, eles enterraram os restos de São Mateus na praia de Issyk-Kul, afirmaram os autores da descoberta. FONTE: megaarquivo.com/2015/09/16/11-792-arqueologia-cidade-biblica-enigmatica-e-encontrada-submersa-em-um-lago/

SAIBA QUAIS SÃO OS 10 DOMÍNIOS MAIS PERIGOSOS DA WEB

Estudo da empresa de segurança Blue Coat procurou identificar os endereços mais perigosos da Web. Para isso, analisou centenas de milhares de solicitações de mais de 15 mil empresas e 75 milhões de usuários. Os resultados mostram que 95% dos sites que utilizam novos domínios (TLDs), criados após 2013, não são confiáveis. O relatório “The Web’s Shadiest Neighborhoods” (As regiões mais suspeitas da Web) combina análises técnicas com dicas e truques para internautas e equipes de segurança das empresas. O objetivo é que ele se torne uma fonte de consulta, colaborando para a preservação da segurança dos diversos ambientes de Tecnologia da Informação e da Comunicação. A pesquisa foca nos endereços com mais chances de serem usados em sites suspeitos, páginas que irão abrigar atividades perigosas para as empresas e para usuários da Internet. Entre os TLDs mais críticos localizam-se, também, as extensões de arquivos .zip e .review. De acordo com o estudo, 100% das extensões .zip e .review são suspeitas. Confira os 10 principais "TLDs com sites suspeitos", segundo a Blue Coat.
Para chegar a esse resultado, a Blue Coat considerou como "suspeitos" os domínios classificados em seu banco de dados como spam, phishing, malware, botnet e software potencialmente indesejado (PUS, Potentially Unwanted Software). O relatório também revela exemplos de atividades nefastas que ocorrem em sites com domínios suspeitos nas primeiras posições do ranking. Isso inclui o segundo domínio aparentemente mais perigoso, o .kim. Recentemente, os pesquisadores da Blue Coat descobriram sites que veiculam páginas que imitam sites populares de vídeo e imagens e levam os visitantes desprotegidos a fazer download de malware involuntariamente. “Devido à explosão do número de TLDs nos últimos anos, vimos um número assustador de domínios suspeitos se espalhar em uma velocidade alarmante”, afirma Dr. Hugh Thompson, CTO da Blue Coat Systems. “O aumento de TLDs obscuras, como revelado pela análise da Blue Coat, está proporcionando mais oportunidades aos malfeitores para perpetrarem suas atividades maliciosas. Para desenvolver uma melhor atitude de segurança, é essencial saber quais sites são os mais suspeitos e como evitá-los.” De 2013 para cá o número de novos TLDs disparou. Houve uma explosão de novos domínios principais na Web. Em termos de segurança da Web, eles não podem ser considerados seguros e tampouco amigáveis, segundo técnicos da Blue Coat. Até junho de 2015, a contagem de TLDs válidos chegou a mais de mil.

Como reduzir a vulnerabilidade aos domínios suspeitos

À medida que organizações e consumidores buscam se proteger contra esses TLDs suspeitos é importante tirar lições importantes do relatório da Blue Coat. Eis, algumas delas: # As empresas devem considerar bloquear o tráfego que leva aos TLDs mais arriscados. A Blue Coat recomenda, por exemplo, que as empresas considerem bloquear o tráfego para as extensões de arquivos .work, .gq, .science, .kim e .country. # Os usuários devem tomar cuidado ao clicar em qualquer link que contenha esses TLDs, caso sejam encontrados em resultados de busca, e-mail ou ambientes de redes sociais. # Se não tiver certeza sobre a origem, passe o mouse sobre um link para verificar se ele leva ao endereço exibido no texto do link. # "Pressione e segure" um link em um dispositivo móvel (não apenas clique) para verificar se realmente leva ao destino onde afirma levar. fonte: idgnow.com.br/internet/2015/09/14/os-dez-dominios-mais-perigosos-da-web/