As 97 novas regiões do cérebro e um mapa extraordinário


Novo mapa do cérebro humano | MATTHEW F. GLASSER, DAVID C. VAN ESSEN/REUTERS

Numa proeza científica, um grupo de investigadores da Universidade de Washington, em Saint Louis, nos Estados Unidos, atualizou o mapa centenário do cérebro humano, adicionando 97 novas regiões às 83 anteriormente conhecidas. As 180 zonas cerebrais identificadas são relevantes no controlo da linguagem, perceção, consciência, pensamento, atenção e sensação.

De acordo com o The Guardian, espera-se agora que este mapa, o mais completo do córtex humano alguma vez apresentado, substitua o de Brodmann (realizado há mais de 100 anos) no trabalho diário das mais diversas áreas científicas.

O esquema divulgado pelos investigadores na revista Nature foi construído a partir da combinação de múltiplas ressonâncias magnéticas a 210 jovens adultos, que participaram no Human Connectome Project, um programa dedicado à compreensão da conectividade neuronal.

Na revista, Matthew Glasser e os outros cientistas envolvidos no projeto explicam como combinaram ressonâncias à estrutura cerebral, às funções e à conectividade para criar o novo mapa. Alguns pacientes foram testados enquanto descansavam, outros enquanto faziam exercícios de matemática ou ouviam histórias para que se assegurasse o maior alcance possível da pesquisa.

O esquema, que ficará disponível a custo zero, deverá auxiliar o trabalho científico na áreas dedicadas ao mapeamento do córtex humano. A neurocirurgia deverá também beneficiar desta conquista (já que os cirurgiões poderão identificar com maior facilidade as zonas que estão a operar.) A longo prazo, o mapa possibilitará a investigação de um vasto manancial de perturbações, como a demência e a esquizofrenia.

O mapa dos investigadores da Unidade de Washington deverá ainda ser preferido aos anteriores, já que anteriormente apenas um dos aspetos do cérebro era tido em conta: ora o aspeto da superfície quando observada ao microscópio ora o desempenho das diversas zonas quando estimuladas.

O mapa de Brodmann, o primeiro a esquematizar o cérebro humana, identificara há mais de 100 anos, apenas 50 regiões distintas na superfície enrugada do córtex humano.

Fonte: DN.

Como o cérebro cria o zero a partir do nada


KACPER PEMPEL/REUTERS

Ao contrário dos números 1, 2, 3…, que contam objectos, “0” simboliza o vazio – e a sua invenção foi um dos maiores avanços intelectuais da humanidade. Os processos neuronais envolvidos nesta façanha cognitiva começam agora a ser desvendados.

O número zero, que representa o nada, a inexistência de algo, é fundamental para tudo o que fazemos, das contas do dia-a-dia à construção de naves espaciais, da matemática à física à engenharia e aos mais sofisticados algoritmos informáticos. Porém, a sua invenção é relativamente recente e demorámos séculos a perceber a sua real importância e a conseguir utilizá-lo como o número de pleno direito que é.

Como é que o nosso cérebro faz para transformar o nada, o vazio, nesse ubíquo número que todos conhecemos e que é representado, no nosso sistema numérico, pelo símbolo “0”? Uma equipa da Universidade de Tübingen, na Alemanha, acaba de dar um passo significativo na identificação das bases neuronais deste processo cognitivo.

Andreas Nieder e os seus colegas realizaram um estudo com dois macacos Rhesus que fornece, pela primeira vez, indicações concretas sobre “como e onde o cérebro traduz activamente a ausência de estímulos contáveis numa categoria numérica”, explica aquela universidade num comunicado. Os seus resultados foram publicados na revista Current Biology.

Mas será que os macacos Rhesus sabem contar? Sim, com treino – e se o número de objectos a contar não for demasiado grande. Acontece que as capacidades numéricas básicas não são exclusivas da espécie humana: sabe-se há várias décadas que muitas espécies animais possuem um “sentido de número” (ou seja, uma ideia aproximada da quantidade de objectos num dado conjunto, ou “numerosidade”). Experiências com ratos, por exemplo, mostraram que estes animais podem ser ensinados a distinguir entre a ocorrência de dois eventos e a de quatro.

“Ratos, pombos, papagaios, golfinhos e, claro, primatas, conseguem discriminar padrões visuais ou sequências auditivas com base apenas em propriedades numéricas (…) e também possuem capacidades elementares de adição e subtracção”, explicava, já em 1997, no então recém-criado think tankonline Edge, o hoje reputado neurocientista Stanislas Dehaenne, professor do Collège de France, em Paris.

Contudo, isto não se compara à nossa capacidade mental de manipular símbolos numéricos: “São precisos anos de treino para incutir os símbolos numéricos aos chimpanzés (…). A manipulação simbólica exacta de números é uma capacidade exclusivamente humana”, acrescentava Dehaenne.

Uma longa saga

A história do zero merece ser contada. É uma história atribulada que dá a volta ao mundo, numa longa viagem de séculos, protagonizada por brilhantes matemáticos de vários continentes.

Mas, antes disso, há uma pergunta que há muito vem sendo colocada: os números, incluindo o zero, foram “descobertos” – porque já existiam na natureza – ou “inventados” por nós? A maioria dos especialistas concorda hoje em dizer que os números foram descobertos, que não são uma pura criação da mente humana.

E quando é que o zero foi descoberto? Aí, a resposta pode parecer paradoxal: foi sem dúvida descoberto há muitos séculos, mas a sua natureza profunda só muito mais tarde seria plenamente compreendida e “domada” pela mente humana.

A primeira manifestação do zero de que há registo surgiu há uns 4000 a 5000 anos na Suméria, sob forma de um par de marcas cuneiformes, afirmava em 2009, na revista Scientific American, o matemático Robert Kaplan, autor do livro The Nothing That Is: A Natural History of Zero.

Pelo seu lado, Charles Seife, autor do livro Zero: The Biography of a Dangerous Idea, não acredita nesta datação tão antiga. “Houve pelo menos duas descobertas, ou invenções, do zero”, explicava no mesmo artigo. “A que chegou até nós veio do Crescente Fértil [que incluía Suméria e Babilónia]” e apareceu entre 400 e 300 a.C. na Babilónia.

A seguir, o zero terá passado da Babilónia para a Índia e para os países árabes do Norte de África antes de atravessar o Mediterrâneo e entrar na Europa. Entretanto, também se espalhara para o Médio Oriente e o Extremo Oriente. Quanto à segunda descoberta do zero – e nisso todos concordam –, foi obra dos Maias, na América Central, aconteceu de forma totalmente independente do resto do mundo e nunca chegou a sair do continente americano.

No início, o zero (nas suas diversas formas) era um símbolo utilizado, nos sistemas numéricos como o babilónico – onde o valor de cada dígito num número depende da sua posição (equivalente às nossas unidades, dezenas, centenas… –, para assinalar que, numa dada posição, não havia qualquer dígito, só um espaço vazio. Este uso do número zero é crucial, uma vez que permite resolver incómodas ambiguidades que, no nosso sistema numérico, se traduziriam, por exemplo, na impossibilidade de distinguir 216 e 2016.

Contudo, o número zero não era ainda totalmente incontornável na ciência e tecnologia da época: os antigos gregos conheciam-no mas quase não o utilizavam, mas isso não os impediu de inventar a geometria; e o sistema numérico romano não tinha zero (o que dificultava em particular a divisão), mas isso não impediu a construção de grandes obras de engenharia.

Número de pleno direito

Seja com for, foi na Índia, há menos de 1500 anos, que o zero começou a tornar-se um número de pleno direito. “Foi nessa altura – e mesmo assim, não totalmente – que o zero adquiriu a cidadania plena na república dos números”, salienta Kaplan, no referido artigo da revista norte-americana.

“Aquilo que podemos afirmar com certeza é que, por volta do século VII d.C., o zero já era utilizado na Índia com o duplo significado actual, enquanto número e enquanto valor posicional”, diz ao PÚBLICO Jorge Buescu, matemático da Faculdade de Ciências da Universidade de Lisboa e vice-presidente da Sociedade Portuguesa de Matemática. “A primeira ocorrência registada de zero que nos chegou é numa placa exterior num templo indiano em Gwalior, na Índia, que data de 876 d.C.”, acrescenta. “É quase arrepiante ver, numa inscrição indecifrável, surgir os algarismos que ainda hoje utilizamos – em particular o ‘0’ com a utilização moderna.”

Mas a questão é que o zero é um número tão especial e tão contra-intuitivo que, apesar de existir como número e como valor posicional, ninguém sabia fazer contas – adições, subtracções e ainda menos multiplicações e divisões – que envolvessem o zero. Sabia-se que 1+1=2. Mas e 1+0?

“Foram os matemáticos indianos quem estabeleceu as propriedades algébricas do zero”, explica-nos Jorge Buescu. “Pode parecer-nos natural hoje; mas foi seguramente muito estranho olhar pela primeira vez para um número pelo qual era impossível dividir.” E no século IX, “um dos maiores matemáticos árabes, Al-Kwharizmi, escreveu um tratado sobre a ‘arte hindu de efectuar cálculos’”, frisa ainda o matemático português – estendendo assim o uso do zero da aritmética para a resolução de equações (o ramo da matemática a que hoje chamamos álgebra). Os árabes chamaram-no “sifr”, palavra que daria origem a “zero” e “cifra”.

O zero entraria no Ocidente pela Itália, no século XIII, importado pelo matemático Fibonacci, também conhecido como Leonardo de Pisa, que o trouxe – bem como todo o sistema numérico árabe (na realidade indiano) – das suas viagens ao Norte de África. Mas só no século XVII é que o seu uso começou a generalizar-se na Europa.

Contas de macacos

Voltando ao trabalho agora realizado em Tübingen, os neurocientistas treinaram dois macacos Rhesus a avaliar a “numerosidade” de conjuntos de pontos que surgiam num ecrã de computador. Ensinaram-nos a diferenciar visualmente um conjunto vazio (ou seja, com zero elementos), um conjunto com um elemento e conjuntos com dois, três e quatro elementos.

Ao mesmo tempo que os macacos executavam esta tarefa visual de discriminação numérica, os cientistas registaram a actividade neuronal em duas áreas do cérebro dos animais, situadas no lobo parietal e no lobo frontal do córtex. A segunda área recebe informação da primeira e os cientistas já sabiam, com base em estudos anteriores, que as duas regiões em causa (designadas VIP e PFC) desempenham um papel fulcral no processamento das quantidades.

Os autores constataram então que as duas regiões cerebrais em causa tinham comportamentos totalmente diferentes. “Os neurónios no lobo parietal representavam os conjuntos vazios mais como uma categoria visual – e portanto não abstracta –, diferente da numerosidade”, disse ao PÚBLICO Andreas Nieder, o líder do estudo. “Pelo contrário, [a actividade] dos neurónios no lobo frontal apresentava duas características distintivas das representações quantitativas: posicionava os conjuntos vazios em relação às outras numerosidades (…) e era independente das propriedades dos estímulos visuais.”

“Os nossos resultados”, explica ainda Nieder, “sugerem que há um processamento hierárquico dos conjuntos vazios de uma região para a outra, ao longo do qual os conjuntos vazios se desligam dos sinais visuais e são integrados num contínuo de numerosidade”. Tudo se passa, por assim dizer, como se os neurónios da segunda área cerebral dos macacos passassem a colocar o “zero” no início de uma “linha de números” mental abstracta.

“Estes animais possuem a capacidade de conceber conjuntos vazios como sendo uma categoria quantitativa”, salienta Nieder. “E visto que o cérebro evoluiu para processar estímulos sensoriais, o facto de ser capaz de conceptualizar os conjuntos vazios constitui um feito extraordinário”, acrescenta.

E conclui: “O nosso estudo fornece o primeiro sinal do processo que o cérebro utiliza para formular conceitos [numéricos] sem relação com a experiência, para além do que é percepcionado – o que é indispensável para construir uma teoria complexa dos números. E este processo poderá constituir a raiz neurobiológica da capacidade humana de descobrir (ou inventar) o zero e transformá-lo num verdadeiro número.”

Evolução cultural

Não é por acaso que o zero tal como o concebemos hoje demorou tanto tempo a ser realmente compreendido pela mente humana. É que, para lá chegar, tivemos por exemplo de aceitar (como já mencionado por Jorge Buescu) que não era possível dividir por zero. De facto, a matemática do zero só ficou completa no século XVII, com a invenção, por Isaac Newton e Gottfried Leibniz, do chamado cálculo infinitesimal, um ramo da matemática essencial à física.

Uma outra prova da dificuldade conceitual associada à nossa noção actual de zero é que as crianças demoram anos a perceber do que se trata. “As crianças têm, primeiro, de perceber que o zero representa uma quantidade vazia – capacidade, essa, que desenvolvem durante o quarto ano de vida”, diz-nos Nieder. “E é por volta dos seis anos que, finalmente, percebem a relação entre o zero e os outros números pequenos – e que o zero é o mais pequeno de todos os números inteiros.

“A compreensão do zero requer um alto nível de abstracção, uma vez que, enquanto número, o zero transcende a experiência empírica”, explica ainda Nieder. “E é interessante constatar que os vários usos do zero ao longo da história reflectem estados mentais (níveis de abstracção) diferentes, que podem ser identificados na cultura humana ao longo do tempo.”

Para Stanislas Dehaenne, foram aliás a cultura e a educação – e não a evolução – que, ao longo da nossa história, permitiram que o cérebro humano atingisse os níveis de abstracção que lhe conhecemos e que se cristalizaram, em particular, na matemática moderna.

“Essencialmente, herdámos da evolução apenas um sentido rudimentar de número, que partilhamos com outros animais e que até os bebés possuem aos poucos meses de vida”, explicava Dehaenne (autor do livro The Number Sense) numa entrevista em 2009 à Scientific American. “É aproximativo e não simbólico (…), mas deu-nos no entanto o conceito de número e nós a seguir aprendemos a estendê-lo com símbolos culturais (como os dígitos) e fazer aritmética de maneira muito mais precisa.”

 

Fonte: Público.

Estimular centro de prazer do cérebro aumenta imunidade

15064512

 

Estimular artificialmente o centro de prazer do cérebro aumenta a imunidade em ratos, o que pode ajudar a explicar o poder dos placebos, de acordo com um estudo publicado na revista britânica “Nature Medicine” nesta segunda-feira (4).

“Nossas descobertas indicam que a ativação de áreas do cérebro associadas a expectativas positivas pode afetar a forma como o corpo lida com as doenças”, disse a autora sênior Asya Rolls, professora assistente na faculdade de Medicina do Instituto Technion-Israel de Tecnologia.

As conclusões, publicadas na revista britânica, “podem um dia levar ao desenvolvimento de novas drogas que utilizem o potencial de cura do cérebro”, disse Rolls.

Os cientistas já sabiam que o sistema de recompensa do cérebro humano, que controla o prazer, pode ser ativado com um placebo se a pessoa que o tomar acreditar que se trata de um medicamento verdadeiro. “Mas não estava claro se isto poderia interferir no bem-estar físico”, disse Rolls.

Rolls e colegas incubaram células do sistema imunológico de ratos expostos à bactéria mortal E. coli depois de terem seus centros de recompensa estimulados. Essas células do sistema imunológico eram pelo menos duas vezes mais eficazes para matar as bactérias do que as células normais, de acordo com os cientistas.

Em um segundo teste, os cientistas vacinaram diferentes camundongos com essas mesmas células do sistema imunológico. Trinta dias depois, o novo grupo de ratos também tinha duas vezes mais capacidade de combater a infecção.

COMIDA E SEXO

A parte do cérebro estimulada foi a chamada área tegmental ventral, onde está o sistema de recompensa. Essa área é ativada, por exemplo, quando um rato, ou um ser humano, sabe que uma refeição saborosa ou um encontro sexual estão próximos.

A partir daí, a mensagem é encaminhada através do sistema nervoso simpático, que é responsável por dar respostas em situações de crise, até desencadear uma resposta imune de combate às bactérias, revela o estudo.

Os pesquisadores observaram, ainda, uma relação entre tal associação e a evolução. “A alimentação e o sexo expõem um indivíduo a bactérias”, disse Rolls. “Isso lhe daria uma vantagem evolutiva se, quando o sistema de recompensa é ativado, a imunidade também aumentar”, completou.

O próximo passo será realizar experimentos com ratos para encontrar moléculas –potenciais drogas– que possam reproduzir essa relação de causa e efeito.

 

Fonte: Folha de S. Paulo

Tristeza não é depressão, depressão é não sentir nada

ulrich-hegerl01_1280x640_acf_croppedUlrich Hegerl é o presidente da Aliança Europeia Contra a Depressão @Hugo Amaral/ Observador

 

Não ter reação, não sentir a dor da perda, não sentir nada de nada, apenas uma culpa profunda. Estes podem ser sinais de uma depressão, especialmente se duram muito tempo.

Tristeza não é depressão, embora a prostração seja um dos estados comuns de quem sofre da doença. Assim, não podemos classificar todas as pessoas tristes como deprimidas, mas nem por isso os números da doença são menos preocupantes – há mais de 350 milhões de pessoas com depressão em todo o mundo, refere a Organização Mundial de Saúde.

A depressão é uma das doenças mais comuns em todo o mundo e uma das principais causas de incapacidade. As faltas ao trabalho, ou a presença não produtiva dos trabalhadores, significam perdas significativas para as empresas. Um impacto económico que chega aos 92 mil milhões de euros na Europa refere a Eutimia – Aliança Europeia Contra a Depressão em Portugal.

Continuar a ler aqui.

Portugueses identificam via cerebral que permite criarmos rotinas

 


LUÍS EFIGÉNIO/NFACTOS

 

Experiência contraria dogma da neurobiologia sobre aprendizagem e poderá ajudar a compreender características comportamentais de doenças neurológicas como a Parkinson.

Abrir uma porta é um processo universal: há uma maçaneta que se roda, depois puxa-se a porta e passa-se para uma nova divisão. A prática de abrir portas é tanta que em geral é possível fazer esta sequência de acções com uma caneca na mão, a falar ao telemóvel ou a pensar num assunto qualquer. Não gastamos um segundo do nosso tempo consciente a tomar decisões sobre como pôr a mão na maçaneta, como rodá-la, etc. É aquilo a que se chama um hábito, uma rotina.

Algures na complexa rede neuronal do nosso cérebro, esta aprendizagem está pronta a ser usada. Agora, uma equipa de cientistas portugueses liderada por Rui Costa defende ter descoberto a via de neurónios que permite desenvolver estas acções habituais, trabalho que foi publicado esta segunda-feira na revista científica Current Biology.

O resultado da experiência “foi contra um dogma”, diz ao PÚBLICO Rui Costa, do Centro Champalimaud, em Lisboa, onde os investigadores testaram as importantes “via directa” e “via indirecta” neuronais.

Estas duas vias neuronais situam-se nos gânglios da base do cérebro e são importantes para as acções. As designações “directa” e “indirecta” não estão relacionadas com a sua função mas devem-se à anatomia. Enquanto na via directa os neurónios seguem um trajecto simples, projectando-se directamente na saída dos gânglios da base, na via indirecta os neurónios percorrem vários núcleos cerebrais.

“O que se pensava é que a via directa dizia ‘faz isto porque isto é bom’. E a via indirecta dizia ‘não faças isto porque é mau”, explica Rui Costa. Ou seja, pensava-se que as duas vias tinham funções antagónicas, enquanto a primeira dava um reforço positivo, a segunda desestimulava a acção.

Mas quando os cientistas estimularam de forma independente as duas vias neuronais em murganhos, o resultado surpreendeu-os.

Para a experiência, os cientistas recorreram a uma técnica recente: a optogenética. A equipa usou dois grupos de murganhos transgénicos, ambos com um gene que comanda a produção de uma proteína sensível à luz. Mas no primeiro grupo, esta proteína só funcionava nos neurónios da via directa. No segundo grupo, a proteína só estava activa nos neurónios da via indirecta.

Quando os neurónios da via com a proteína recebiam um estímulo de luz, a via neuronal activava-se. Assim, o método permite activar os neurónios e testar o comportamento que as vias provocam quando são activadas.

Foi este princípio que a equipa de Rui Costa testou num dispositivo laboratorial com uma caixa com duas alavancas. Cada murganho transgénico dos dois grupos tinha várias sessões de meia hora dentro da caixa, onde podia pisar à vontade nas duas alavancas. Porém, havia uma diferença. Uma das alavancas não fazia nada. Mas a outra, através de um dispositivo, ligava uma luz no cérebro do murganho, activando a via neuronal (directa ou indirecta) com a proteína sensível à luz.

Com este dispositivo, os cientistas fizeram algumas perguntas. No caso do grupo dos murganhos em que a luz activava a via directa, a equipa testou se os roedores passavam a pisar mais a alavanca que accionava a luz em detrimento da outra que não dava estímulos. Um resultado destes confirmaria a noção de que a via directa reforça as acções.

No caso do outro grupo de roedores, os investigadores esperavam que a alavanca, ao ligar a luz e accionar a via indirecta, iria fazer com que os murganhos rapidamente desistissem de pisar essa alavanca, tal como seria de esperar se a via indirecta inibisse as acções.

Tudo correu dentro da expectativa com os murganhos em que a luz estimulava a via directa: em apenas cinco sessões de meia hora os roedores passaram a pisar mais de 100 vezes a alavanca que activava a luz, ignorando completamente a outra alavanca. Comprovou-se assim que a activação da via directa reforça a acção.

E depois há a generalização

Mas no caso dos roedores em que a luz estimulava a via indirecta de neurónios, a experiência foi uma surpresa. Os murganhos não abandonaram a alavanca que accionava a luz. Em vez disso, de sessão para sessão, estes roedores foram pisando cada vez mais a alavanca que accionava a luz como a outra alavanca.

Ao fim de 30 sessões, estes murganhos pisavam cada uma das alavancas cerca de dez vezes. Um valor superior ao de um terceiro grupo de murganhos que serviu de grupo controlo, em que as duas alavancas não accionavam nenhuma via neuronal no cérebro. Este terceiro grupo pisava as alavancas menos de cinco vezes por cada sessão.

Segundo Rui Costa, o comportamento do segundo grupo de murganhos não traduz uma inibição, mostra antes aquilo que parece ser uma aprendizagem gradual importante para se ganhar hábitos. “Muito cedo na aprendizagem a via directa é mais rápida (…) e está a ganhar. Mais tarde, depois de muito treino, pensamos que a via indirecta ganha a competição”, diz, o que é uma vantagem. “Os hábitos estão lá para estarmos libertos deste peso cognitivo.”

Mas como se explica que estes roedores pisem as duas alavancas e não apenas aquela que acciona a luz? “Chama-se a isso a generalização”, explica, dando o exemplo de se aprender a abrir uma porta. “Todas as portas são semelhantes. Podemos generalizar uma coisa que já aprendemos.” No caso dos murganhos, se uma alavanca é boa para pisar, então, por rotina, todas as alavancas são boas para pisar.

O próximo passo, segundo Rui Costa, é tentar compreender se estas vias estão envolvidas em doenças neurológicas como o autismo, onde há repetição de gestos, ou a Parkinson, em que os movimentos ficam descontrolados.

 

Fonte: Nicolau Ferreira, Público.

Cientistas portugueses descodificaram mais um mecanismo para a comunicação entre neurónios

Uma equipa de investigadores que inclui portugueses percebeu que o mecanismo que ajuda a eliminar proteínas defeituosas das células também pode regular a comunicação dos neurónios.

Uma equipa de investigadores, que inclui cientistas portugueses,demonstrou pela primeira vez uma nova função para a proteína ubiquitina. Pensava-se que a ubiquitina só interferia na destruição das proteínas dentro das células, mas afinal também tem um papel no desenvolvimento dos pontos de comunicação entre os neurónios (as sinapses), explicaram os cientistas num artigo publicado na revista The Journal of Cell Biology.

Os doentes com autismo ou síndrome de Angelman apresentam normalmente uma formação incorreta de sinapses e os doentes com epilepsia apresentam demasiadas sinapses de um determinado tipo, explicou ao Observador Ramiro Almeida, investigador no Centro de Neurociências e Biologia Celular da Universidade de Coimbra. Embora o objetivo desta equipa não seja a compreensão e tratamento destas doenças, os resultados apresentados e outros que deles decorram no futuro ajudarão a compreender melhor os mecanismos de formação de sinapses e a passagem de informação no sistema nervoso.

“Decidimos arriscar uma abordagem pouco convencional e investigar o processo pelo qual a maquinaria de destruição das células contribui para o desenvolvimento do sistema nervoso”, disse Ramiro Almeida em comunicado de imprensa. Mas vamos lá simplificar.

A principal função da ubiquitina, uma proteína que existe no interior das células, é marcar as proteínas que têm defeito ou as mais antigas. Depois, estas proteínas marcadas são reconhecidas pelos proteossomas e “desmembradas”. Assim, estes dois componentes — ubiquitina e proteossoma — atuam em conjunto para controlar as proteínas no interior das células. Este é um processo cuja descoberta foi premiada com o Nobel da Química de 2004, entregue a Aaron Ciechanover, Avram Hershko e Irwin Rose.

Representação da ubiquitina.

Desconfiando que o sistema ubiquitina-proteossoma podia ter outra função que não a convencional, a equipa de Ramiro Almeida resolveu estudar a sua função nos neurónios, mais especificamente nos axónios. Os axónios são o prolongamento dos neurónios por onde passa a informação que será transmitida às outras células. As sinapses são a região de contacto entre dois neurónios, normalmente entre os axónios e as dendrites (prolongamentos dos neurónios que funcionam como “antenas”).

Os investigadores verificaram que, bloqueando o sistema ubiquitina-proteossoma nos axónios, aumentavam o número de sinapses nos neurónios. Assim este sistema parece contribuir ativamente para a regulação das sinapses, responsáveis pela comunicação entre neurónios.

O objetivo da equipa de cientistas é perceber melhor como se formam as sinapses, uma “peça fundamental do sistema nervoso em termos de comunicação”, disse Ramiro Almeida ao Observador. Desta forma também será possível perceber melhor o funcionamento do cérebro e os primeiros estádios do desenvolvimento. O próximo passo é descobrir que proteínas, marcadas pela ubiquitina, inibem a produção de sinapses.

 

Fonte: Observador.

Saúde mental: “Os portugueses são mais vulneráveis ao sofrimento”

O retrato da saúde mental em Portugal, traçado no mais recente relatório da Direção-Geral da Saúde, não é animador. O consumo de antidepressivos está a disparar e o suicídio está a crescer, sobretudo nas pessoas em idade ativa

Em entrevista ao Expresso Diário, o diretor do Programa Nacional para a Saúde Mental, Álvaro de Carvalho, sugere que os portugueses são mais vulneráveis ao sofrimento psicológico e diz que a crise económica vivida nos últimos anos fez aumentar o desespero.

De acordo com o relatório “Saúde Mental em Números”, divulgado esta quinta-feira, o suicídio em Portugal continua a ser maior entre os idosos, mas está a crescer entre as pessoas em idade ativa. A que se deve este aumento?
O relatório indica que, tanto nos homens como nas mulheres, tem crescido o número de anos de vida perdidos por suicídio, o que significa que se estão a suicidar pessoas mais jovens, em idade ativa. Nas consultas de prevenção do suicídio, muitas pessoas na casa dos 40, 50 anos queixam-se de que são muito novas para se reformarem, mas já são consideradas demasiado velhas pelo mercado para poderem trabalhar. É um discurso muito comum.

Continuar a ler aqui.

Pessoas mais inteligentes tendem a ter menos amigos

 

Estudo sugere que o cérebro dos génios funciona de forma diferente. Fazendo com que, ao contrário do que se passa com a maioria da população, a socialização possa trazer infelicidade

Um estudo publicado recentemente na revista científica British Journal of Psychology, quanto mais uma pessoa muito inteligente precisa de socializar, menos satisfeita ficará com a vida.

Isto porque, segundo os resultados do estudo realizado pelos psicólogos evolucionistas Satoshi Kanazawa, da London School of Economics, e Norman Li, da Universidade de Administração de Singapura os génios são mais solitários.

Para chegar a estas conclusões os investigadores questionaram 15 mil pessoas, com idade entre os 18 e os 28 anos, sobre a felicidade. Foram analisados também dados como a densidade populacional do local onde os voluntários viviam e a frequência de interação com os amigos.

Os investigadores acreditam que, por causa da herança ancestral, a maioria das pessoas atualmente relata sentir-se mais feliz quando convive com amigos e familiares, especialmente no caso de quem vive em lugares com menor densidade demográfica.

Mas este estudo prova, como reporta a revista Veja, que esta lógica não se aplica as pessoas que são muito inteligentes. No caso de pessoas com QI muito alto, quanto mais precisam de socializar, a sua satisfação com a vida tende a ser menor.

“O efeito da densidade populacional na satisfação com a vida era mais de duas vezes maior para os indivíduos de baixo QI do que para os indivíduos com QI mais alto. E os indivíduos mais inteligentes eram, na verdade, menos satisfeitos com a vida se socializavam com os seus amigos com mais frequência”, escreveram os autores.

 

Fonte: Lifestyle ao minuto. 

Harvard aposta em “educação avançada de 3º grau”

 

Não é uma universidade para a 3ª idade, mas a possibilidade para um “segundo acto” de carreira, um “encore” ou uma nova oportunidade de deixar a marca na sociedade depois de se atingir o topo na carreira e em alternativa ao “lazer” que muitos pretendem evitar quando chega a idade de reforma. A Harvard Advanced Leadership Initiative está a revolucionar a educação “sénior” apostando num curso interdisciplinar para os que têm vontade de utilizar a experiência adquirida para dar forma a projectos que abordem questões sociais complexas

Depois de 36 anos de carreira na IBM, onde ocupou vários cargos de liderança, Lauren States chegou à fase normal da vida em que se pensa no tão desejado tempo livre que a reforma oferece. Com o marido aposentado desde 2011 e entretanto dedicado a novos projectos de serviço público, Lauren começou a pensar, todavia, naquilo que poderia ser o seu segundo acto de vida. Enquanto executiva sénior da gigantesca Big Blue, States sempre se interrogou por que motivo a indústria das tecnologias tinha escassez de mulheres e, mais grave ainda, de mulheres negras. Foi então que resolveu transformar a questão numa cruzada, não sabendo, contudo, por onde começar.

Uma história similar conta Ken Kelley, no Finantial Times. O fundador da Paxvax, uma empresa de vacinas com enfoque na indústria das viagens, sempre se questionou por que motivo certo tipo de doenças, como o Ébola ou o dengue, não tinham ainda protecção via vacinas. Kelley, que trabalhou durante 35 anos em Silicon Valley como capitalista de risco e empreendedor na área da biotecnologia, admitiu a sua obsessão face a esta ausência e falou sobre a mesma com clientes, colegas, amigos e qualquer outra pessoa que tivesse paciência para o ouvir. E, durante uma dessas conversas, um amigo encorajou-o a seguir esta paixão começando por a abordar num programa de Harvard denominado Advanced Learning Initiative (ALI).

A missão da ALI visa estabelecer “um novo degrau na educação superior, com base na colaboração entre disciplinas e profissões distintas, com o objectivo de originar uma nova ‘força’ de líderes experientes que estão a iniciar a transição dos seus anos de actividade remunerada para os seus próximos anos de serviço público”

Lauren States e Ken Kelley são apenas dois de um conjunto significativo de executivos seniores, que ou se encontram no topo do topo das suas carreiras, próximos da idade da reforma ou mesmo já reformados e que decidiram trocar o prazer dos dias de lazer a jogar golfe ou a viajar para destinos exóticos – prática comum entre os mais afortunados líderes de sucesso – por um “regresso às aulas” naquilo que a tradicional Universidade de Harvard, com mais de 400 anos de existência, denomina como a “invenção de uma ‘3ª’ fase na educação superior.

A Harvard Advanced Learning Initiative nasceu – ou melhor, foi “semeada” em 2005, pela mão de Rosabeth Moss Kanter, Rakesh Khurana e Nitin Nohria [actual Dean da HBS], todos eles professores de renome mundial na universidade mais famosa do mundo e que, em conjunto, decidiram escrever um paper sobre esta “invenção”.

O paper, intitulado “Moving Higher Education to its Next Stage” não só analisa a história da educação superior (a evolução das universidades, das pós-graduações e a que existe para além destas), como a crescente existência de desafios globais complexos e ainda as alterações demográficas: em particular, o aumento da longevidade e o potencial para que profissionais seniores possam “continuar a aprender”, aproveitando o seu talento, energia, competências, experiência e um tempo “pós-carreira”, para prestarem um serviço “extra” em actividades que abordem e confiram impacto positivo aos mais complexos “reptos” da sociedade.

O segmento “explosivo” de Baby Boomers próximo da idade da reforma (que só nos Estados Unidos ascende a mais de 75 milhões de pessoas) que está a ser “contagiado” pelo impulso de “dar de volta à sociedade” em conjunto com o facto de “se estar a reformar mais tarde, ao mesmo tempo que mantém uma actividade física e mental elevada, preferindo colocar o seu talento e experiência ao serviço da sociedade” são três razões explicitadas também neste paper para a criação desta iniciativa inovadora.

Cerca de quatro anos mais tarde, mais precisamente em Janeiro de 2009, o programa arrancou, em modo “piloto”, com uma turma de 14 alunos, entre os quais se contavam um antigo general e astronauta, um antigo funcionário da Agência para o Desenvolvimento Internacional das Nações Unidas, um médico empreendedor do Texas, um alto cargo de uma empresa de utilities da Califónia, um ex-ministro da Saúde da Venezuela e um antigo executivo de topo de uma empresa de computadores da Suíça.

Com backgrounds completamente diferentes – sendo esta uma das características procuradas pela ALI – o que unia, em 2009, estes “novos velhos alunos” era um “espírito de que é possível fazer acontecer”, uma experiência de liderança de pelo menos mais de duas décadas e a vontade de experimentar uma “alternativa à reforma”, a qual pudesse contribuir não só para uma busca de propósito individual, mas também para gerar impacto positivo nos vários problemas sistémicos e globais que assolam o mundo. Apostar em candidatos de diversas partes do globo, com backgrounds e profissões diversificados e com vontade de aprender e apreender novas competências e recursos “fora das suas zonas de conforto” consiste igualmente numa das premissas da ALI.

Porque pensar “fora da caixa” já não é suficiente

Quando os três professores de Harvard decidiram escrever o seu paper, o mesmo assentava numa proposta para que as universidades experimentassem um novo modelo de introdução de um 3º grau na educação superior que pudesse representar a “próxima grande inovação do ensino universitário não só na América, mas a nível global”, repetindo a visão que, no último quartel do século XIX, pautava o conceito de universidade: “a de que o seu principal propósito é o de servir a sociedade”, e que o mesmo só poderia ser atingido através da inovação.

Como escreve Rosabeth Moss Kanter, responsável do ALI, na altura em que se começou a divisar esta iniciativa, “ousámos arriscar e apostar na audácia”, na medida em que os três fundadores acreditavam ser necessário “pensar fora do edifício, porque pensar fora de uma mera caixa já não era suficiente e porque a inovação não acontece num estabelecimento que protege a sua forma de fazer as coisas”. Tendo em conta a tradição secular de Harvard, escrever o paper “de acordo com a linguagem da instituição” foi só um dos desafios enfrentados pelos três professores.

Apostar em candidatos de diversas partes do globo, com backgrounds e profissões diversificados e com vontade de aprender e apreender novas competências e recursos “fora das suas zonas de conforto” consiste igualmente numa das premissas da ALI

O que este trio pretendia demonstrar era que “não basta uma aldeia para educar uma criança ou para fazer a mudança”, mas sim “uma coligação multi-stakeholder e multissectorial”. E foi essencialmente por causa desta visão que a Advanced Leadership Initiative reuniu, depois de gerar um enorme entusiasmo em muitos outros professores de Harvard, cinco das suas faculdades – a escola de Negócios, de Educação, de Política e Administração Pública, de Direito, e de Medicina e Saúde Pública -, na medida em que para se abordar os diversos desafios societais são necessárias competências de liderança interdisciplinares, aproveitando, em simultâneo, as alterações demográficas (dado que a esperança de vida aumentou significativamente e a “idade” passou a ser um conceito mais relativo) que dão origem a novas oportunidades para se educar e “formar” líderes já “realizados” que se encontrem no topo e/ou na recta final das suas carreiras. Adicionalmente, problemas sistémicos como a pobreza, a saúde global, a degradação ambiental e a educação básica possuem também dimensões técnicas e políticas que não podem ser resolvidas apenas a partir de uma abordagem singular.

Na verdade, e através desta Iniciativa, o que os três professores desejavam era explorar a experiência de uma geração de líderes socialmente consciente e ajudar a redireccionar e a alargar as suas competências para preencher gaps de liderança na resolução das grandes problemáticas sociais.

Numa definição mais alargada, a missão da ALI visa estabelecer “um novo degrau na educação superior, com base na colaboração entre disciplinas e profissões distintas, com o objectivo de originar uma nova ‘força’ de líderes experientes que estão a iniciar a transição dos seus anos de actividade remunerada para os seus próximos anos de serviço público”. Adicionalmente, a ALI pretende igualmente ser pioneira na chamada aprendizagem ao longo da vida para alunos numa fase ‘avançada’ que irão utilizar os seus conhecimentos para mudar a sociedade e as suas instituições, fazendo uma diferença, individual e colectiva, no que respeita a problemas comunitários, nacionais e globais.

Esta mesma iniciativa visa assegurar que a missão de servir o mundo contribui para uma excelente “Universidade do Futuro”: ajudando a formar e a contribuir para um crescente corpo de conhecimentos sobre como transformar a sociedade ao nível institucional, através de inovações que melhorem a educação, a saúde, a conservação ambiental, a revitalização urbana, os direitos humanos, o acesso à justiça e outras temáticas complexas e multi-stakeholders que possam beneficiar de uma liderança que seja capaz de trabalhar a partir de profissões e disciplinas variadas.

11022016_HarvardAposta2

Voltar aos bancos da escola para “dar de volta”

No seu 8º ano (iniciado em Janeiro último), a iniciativa de Harvard reúne já um considerável número de “fellows” (na medida em que estes não são nem estudantes “normais” nem executivos que frequentam programas de pós-graduação em negócios): dos 13 iniciais que participaram na experiência-piloto da ALI, a turma de 2015 cresceu para 43 e, os mais recentes “inscritos” são já 48. Com motivações, paixões e projectos diversificados, estes fellows passam dois semestres em Harvard (o que os obriga a estarem presentes, pelo menos, três dias por semana nas aulas), sendo que a sua primeira etapa consiste em frequentar um “curso”específico em conjunto denominado COAL – Challenges and Opportunities in Advanced Leadrship”, ao mesmo tempo que podem escolher outras aulas relevantes para os seus interesses individuais, bem como para os seus projectos “nascentes”. Para além da oferta educativa das cinco escolas já mencionadas – às quais se juntou também a Faculdade de Artes e Ciências – os fellows participam, diariamente, em “think tanks” específicos sobre, por exemplo, educação ou cuidados de saúde, e todos os anos, a meio do curso, fazem uma “viagem educativa” a uma qualquer parte do mundo – Bombaim, na Índia, São Paulo, no Brasil ou Xangai, na China, são alguns dos destinos já visitados – com vista a conhecer novas realidades e a quebrar as barreiras convencionais de “pensamento e cultura”.

“Os fellows têm, tipicamente, entre 20 a 25 anos de experiência em liderança, uma capacidade comprovada de trabalho em contextos ‘não familiares’ e o desejo expresso de trabalhar em prol de um problema social”, esclarece Rosabeth Moss Kanter

Ao longo do ano, os fellows servem também de mentores aos estudantes “normais” de Harvard, são aconselhados por vários professores no que respeita às suas pesquisas e projectos específicos, e participam nas inúmeras actividades que um colosso da educação como é Harvard vai disponibilizando aos seus alunos. Em Novembro, e num simpósio específico para o efeito, cada fellow deverá apresentar não uma dissertação, mas um plano de negócio para o seu “segundo acto de carreira”.

Até agora, estes velhos novos alunos já se dedicaram a questões tão variadas como a má nutrição, ao problema dos muitos estudantes que se endividam para pagar a sua educação superior, a novos caminhos na área da educação ou da saúde, às energias renováveis, à escassez de água em países em desenvolvimento, a melhorar o acesso a medicamentos em países de baixos rendimentos, ao tráfico de seres humanos, à obesidade infantil, a diversas questões que impedem a igualdade de género, à atribuição de bolsas de mérito, entre muitas outras problemáticas que assombram as sociedades do século XXI.

Apesar do programa não estipular pré-requisitos para a aceitação de candidatos, entre os mesmos destacam-se antigos CEOs, presidentes de fundações, advogados de topo e funcionários governamentais de alto nível. Como refere a própria Rosabeth Moss Kanter ao Finantial Times, “os fellows têm, tipicamente, entre 20 a 25 anos de experiência em liderança, uma capacidade comprovada de trabalho em contextos não familiares e o desejo expresso de trabalhar em prol de um problema social”. Kanter refere ainda que existem dois estádios, por excelência, na vida adulta, em que as pessoas param para avaliar e pensar sobre “grandes problemas”: ao longo do tempo em que “completam a sua formação universitária” e mais tarde “quando se atinge o topo da carreira e já não é preciso nem o esforço para subir mais um degrau nem para se ganhar mais dinheiro”. No “entretanto”, e enquanto nos esforçamos por ascender profissionalmente e por criar uma família, “não há tempo”, acrescenta.

Em Harvard acredita-se que esta “3ª fase da educação superior” deverá ser a missão natural de todas as universidades num futuro próximo

Com a 8ª edição desta iniciativa em curso, é já possível também observar que, na maioria dos casos, os fellowschegam a Harvard apenas com uma vaga ideia sobre os problemas que pretendem abordar – e sem saberem bem como o fazer – terminando, contudo, o curso com um verdadeiro plano de acção, o qual pode tomar a forma de uma campanha pública em favor de uma determinada causa, o lançamento de uma fundação ou de uma empresa social ou, simplesmente, a escrita de um livro. A falta de líderes e gestores com experiência comprovada nas organizações sociais, as quais se vão multiplicando a um ritmo quase tão elevado quanto o dos próprios problemas que abordam, consistiu igualmente numa das razões para a criação desta iniciativa, escassez esta definida por Kanter como “um défice de liderança colectivo” num artigo de 2008 publicado pelo The New York Times.

No que respeita ao sucesso de longo prazo da iniciativa – e independentemente da forma como os actuais e antigos fellows utilizam e utilizarão as suas novas competências, aprendizagens e relacionamentos para os colocar ao serviço da sociedade -, em Harvard acredita-se que esta “3ª fase da educação superior” deverá ser a missão natural de todas as universidades num futuro próximo (algumas outras universidades começam a ter iniciativas similares, como por exemplo, o Distinguished Carreers Institute, em Stanford).

A ideia é que esta aprendizagem ao longo da vida ou a 3ª fase da educação superior passe a integrar o plano educativo “comum” do século XXI. E com acesso permitido a todos os que pretendam contribuir para melhorar o mundo e não só os que tenham condições financeiras extraordinárias para participarem em iniciativas como a Advanced Learning Initiative de Harvard.


Contribuir para melhorar o mundo, acto II
O que resultou, na prática, da vontade dos muitos fellows que se voltaram a sentar nos bancos de Harvard? Seguem-se alguns exemplos.

Formação de aprendizes na era da Internet – Miguel Rey, originário da Colômbia, mas a residir no sul da Florida, apostou no poder dos mentores. A partir da empresa de TI na qual é vice-presidente, lançou um programa destinado a melhorar a proficiência tecnológica da sua própria força de trabalho (na sua maioria, sem educação académica), treinando-os ao longo de um ano em regime de full time, e sem perderem nem salário nem benefícios.

Iluminar uma nação africana às escuras – Foi o que Rich Fahey escolheu para o “encore” da sua vida profissional. Depois de ter servido como voluntário no Corpo da Paz na Libéria, nos anos de 1960, quando ali voltou quase meio século mais tarde, encontrou um país arrasado por uma guerra civil de 14 anos e com as infra-estruturas de energia eléctrica completamente destruídas. Com uma economia paralisada e milhares de agregados às escuras, Fahey fundou uma organização sem fins lucrativos para ajudar a devolver a energia eléctrica a milhares de pessoas.

Melhorar o acesso à alimentação e à água potável em países em desenvolvimento – Com uma carreira passada no desenvolvimento e financiamento de negócios, Monty Simus fundou a AgeResilience, depois de passar muitos anos a escrever e a dar conferências sobre questões relacionadas com a escassez de água. Uma aposta na tecnologia e na sustentabilidade levou-o a participar na ALI para dar substância ao seu sonho.

Gerir a saúde mental – Na medida em que o governo americano deixou de custear o apoio a pessoas com doenças mentais severas, Ronald Lauderlade, antigo vice-presidente na IBM e a sua mulher Valerie participaram na ALI com vista a melhorar os cuidados a pacientes e cuidadores, com serviços pagos pelos “mais afluentes”, mas gratuitos para os pobres, em conjunto com formação contínua para profissionais de saúde e serviços de cuidados continuados que libertam os hospitais dos muitos indigentes que, inevitavelmente, ali vão procurar ajuda.

Ajudar as crianças a pensar “em grande” – Destinada a crianças de agregados pobres, a ferramenta educativa “Lead a Brilliant Life”, foi desenvolvida por Susan G. Johnson, antiga presidente de uma empresa de gestão de fundos privados, com o objectivo de fazer corresponder aos recursos educativos “normais” a possibilidade dos alunos sem recursos financeiros e/ou tecnológicos, aprenderem sobre determinadas profissões que, em principio, lhes estão vedadas. A ferramenta está a ser distribuída gratuitamente em centros de ocupação de tempos livres e em programas extracurriculares.

Reumanizar os cuidados de saúde – Alarmado com o descontentamento dos médicos face à sua profissão, Vincent de Luise, um oftalmologista do Connecticut projectou o “Curso de Compaixão”, com o objectivo de o incluir nos currículos das escolas de medicina, introduzindo a formação em arte, observação, narrativa, consciencialização e empatia, como bases imprescindíveis para o humanismo que um médico deve possuir.


Fontes consultadas:

Harvard Advanced Leadership Initiative

Moving Higher Education to its Next Stage

Harvard leadership programme help boomer bosses to save the world (Finantial Times)

Universities Teach Retired CEOs To Make The World a Better Place (Forbes)

Starting Over, With a Second Career Goal of Changing Society (The New York Times)

Shifting Careers to Drive Change (Harvard Gazette)

Advanced Leadership (Harvard Business Review)

Fellows’ Travels (Harvard Business Review)

 

 

Fonte: Helena Oliveira, VER.

Tédio, para que te quero?

Ninguém gosta de se aborrecer. Isto é tanto assim que fazemos tudo (mesmo tudo) para escapar ao tédio. O estudo deste estado mental começou agora a envolver as neurociências e promete não ser nada entediante.

Pormenor do quadro Madona Sistina, de Rafael DR
Imagine a seguinte situação. Você vai participar como voluntário/a numa experiência de psicologia. A tarefa que tem pela frente parece trivial: tem de permanecer sentado/a numa salinha de paredes nuas, durante 15 minutos, consigo próprio por única companhia. Não pode levar consigo telemóveis, televisores, computadores, jornais, revistas, nem papel e lápis para se entreter ou distrair. E também não pode adormecer. Tudo o que pode fazer é olhar para as paredes e… pensar.

É-lhe contudo permitido fazer uma coisa durante esse período de ócio – mas só se e quando lhe apetecer: carregando num botão, pode infligir a si próprio/a um ligeiro choque eléctrico, equivalente àquelas descargas de electricidade estática que por vezes se apanham ao mexer num objecto metálico.

Antes de iniciar a experiência, os participantes tiveram a oportunidade de sentir na pele o desconforto produzido pelo choque – e a maioria declarou-se disposto/a a pagar para evitar receber um novo choque desses.

A reacção tem lógica: quem não acharia irracional o desejo de sentir outra vez algo de tão desagradável quando a tarefa que tem pela frente parece tão, mas tão inócua, em comparação?

Desengane-se. O mais provável é que, tal como a maioria dos outros participantes que juraram não querer repetir a experiência do choque eléctrico, antes de emergir da salinha, um quarto de hora mais tarde, você tenha carregado no fatídico botão… e talvez até mais do que uma vez.

Estes surpreendentes resultados foram revelados, em 2014, num estudo publicado na revista Science pelo psicólogo Timothy Wilson, da Universidade da Virgínia (EUA), e colegas. Mais precisamente: 12 dos 18 homens (67%) e seis das 24 mulheres (25%) testados preferiram receber choques eléctricos a não ter nada para fazer (a não ser pensar) durante a sua curta permanência em isolamento forçado.

“O mais notável”, escreveram na altura os autores, “é que o facto de estar simplesmente a sós com os seus próprios pensamentos durante 15 minutos era aparentemente tão insuportável que levou muitos participantes a auto-administrar um choque eléctrico apesar de terem anteriormente declarado que estavam dispostos a pagar para o evitar”.

Por que é que isto aconteceu? A ideia dos (ainda) raros especialistas que estudam este tipo de fenómenos é que o que está aqui subjacente é nada mais, nada menos do que a nossa aversão pelo tédio. Por alguma razão, não ter nada para fazer é o pior que nos pode acontecer.

No trabalho da equipa de Wilson, a questão do tédio não era explicitamente levantada. Mas em 2015, Chantal Nederkoorn e colegas, do Departamento de Psicologia e Neurociências da Universidade de Maastricht (Holanda), realizaram um estudo semelhante cujo objectivo era assumidamente determinar se o tédio induzido nas pessoas pelo visionamento de um vídeo monótono e repetitivo poderia promover o consumo de guloseimas – e mesmo a auto-administração de choques eléctricos por parte dos participantes. Os seus resultados, publicados na revista Appetite, corroboram o estudo norte-americano e incluem explicitamente o tédio na equação: “As pessoas podem estar dispostas a procurar estímulos negativos, por exemplo a magoarem-se, só para fugir ao tédio”, concluíam os autores.

O tédio tem acompanhado os seres humanos ao longo dos séculos, como atestam a literatura, a arte e a filosofia. Mas a primeira abordagem científica da questão data de 1885, num curto artigo, publicado na revista Nature pelo ímpar Francis Galton, primo de Charles Darwin e um dos pais da estatística moderna, entre muitas outras coisas.

No texto, intitulado Medir a irrequietude (The measure of fidget), Galton relatava como tinha passado o tempo, durante uma palestra particularmente chata, a imaginar uma forma objectiva de calcular o estado de aborrecimento da assistência. E concluía: “Gostava de sugerir aos filósofos praticantes, quando as reuniões em que participam se revelarem aborrecidas, que se entretenham a estimar a frequência, amplitude e duração da irrequietude dos seus companheiros de infortúnio. (…) Penso que desta forma poderão adquirir uma nova arte de conferir expressão numérica à quantidade de tédio geralmente expressa pelo público durante qualquer apresentação de trabalhos.”

100 anos para medir o tédio
Foi preciso esperar um século depois da publicação do ensaio de Galton para que os psicólogos (e não os filósofos) começassem a tentar medir o tédio para o estudar. Em 1986, Norman Sundberg e Richard Farmer, da Universidade do Oregon (EUA), desenvolveram para isso a chamada Escala de Propensão ao Tédio (EPT, em inglês Boredom Proneness Scale), que permitia avaliar o quão aborrecida estava uma pessoa através de uma série de perguntas “que iam para além do simples ‘sente-se entediado(a)’?”, lê-se num artigo da jornalista norte-americana Maggie Koerth-Baker publicado há dias na revistaNature.

O teste, disponível a qualquer um, por exemplo em http://www.gotoquiz.com/boredom_proness_scale, consiste em 28 afirmações com as quais podemos concordar ou discordar, do tipo: “O tempo parece passar sempre muito devagar.”

Já agora, a acreditar nos resultados obtidos ao fazer o teste, a autora deste artigo revelou-se muito pouco propensa ao tédio – talvez graças à sua estimulante profissão de jornalista de ciência, visto que uma grande fatia das situações entediantes da nossa vida está relacionada (é triste dizê-lo) com o nosso trabalho.

“Tédio? O que é isso? Você poderia estar a ver secar uma parede recém-pintada e adorar”, foi a resposta que recebemos. “O seu romance preferido é Guerra e Paz (plausível) e os seus projectos são de muito longo prazo.” Um resultado que consideramos contudo algo optimista, a julgar pela nossa reacção aos filmes de Jean-Luc Godard ou de Manoel de Oliveira…

Vários tipos de tédio?
Mas o que é exactamente o tédio? Ninguém sabe ao certo, mas tudo indica que não se trata simplesmente de um estado de depressão ou de apatia, uma vez que, para além da já referida autopunição a que as pessoas recorrem para evitar tão desagradável estado mental, é notório que o tédio também pode conduzir a comportamentos activos de risco, como o abuso de drogas ou o jogo compulsivo – e ainda, noutro contexto, ao insucesso escolar.

Uma coisa parece certa: o tédio é uma emoção suficientemente importante na vida das pessoas para o seu estudo ser levado a sério do ponto de vista científico. E mais: conhecem-se casos de lesões cerebrais, na sequência de traumatismos, em que os doentes não só ficam com uma maior propensão para o tédio do que antes, mas ficam entediados mesmo com as actividades que até aí eram a paixão da sua vida. Como faz notar aliás Maggie Koerth-Baker no artigo referido, esse foi um dos motivos pelos quais alguns neurocientistas começaram a interessar-se pelo tema nos últimos anos, procurando em particular as raízes neurológicas do tédio.

Outra coisa parece confirmar-se: existem vários tipos de tédio. Por exemplo, segundo resultados da equipa de Thomas Goetz, da Universidade de Constança (Alemanha), publicados em 2013 na revista Motivation and Emotion, existem cinco tipos de tédio, em função do estado emocional das pessoas por um lado (que vai de preguiçoso a irrequieto a irritável) e, por outro, das emoções positivas e negativas que sentem quanto estão entediadas. Este tipo de classificações, bem como as técnicas utilizadas para medir o tédio (e para induzir o tédio nas pessoas de forma a poder realizar experiências) não param contudo de evoluir.

Tédio bom, tédio mau
Mas simplifiquemos. Em termos gerais, existe um tédio “simples”, que é o tédio que todos já sentimos em diversas situações do nosso dia-a-dia devido a circunstâncias transitórias e muitas vezes previsíveis. Mas há também o chamado tédio “existencial”, que se caracteriza por “um sentimento ininterrupto de isolamento, vazio, alienação e até impotência”, explicava Peter Toohey, professor de Estudos Clássicos na Universidade de Calgary (Canadá), numa entrevista em 2011 à revista New Yorker a propósito do livro que acabara de publicar.

O seu livro intitula-se Boredom: A Lively History (Tédio: Uma História Vivaz) e a tese de Toohey é que o tédio é uma emoção universal que os humanos de todas as culturas e de todas as épocas conhecem bem.

O tédio existencial, escreve, “é um conceito construído a partir de uma mistura de tédio, tédio crónico, depressão, sentido do supérfluo, frustração, excesso, nojo, indiferença, apatia e a sensação de aprisionamento”. Segundo Toohey, lê-se numa recensão do mesmo livro publicada no diário britânicoThe Guardian, este tipo de tédio extremo foi inventado no século XVIII, aquando da ascensão do individualismo e da crescente secularização da sociedade.

Quanto ao tédio simples, argumenta ainda Toohey, trata-se de uma emoção positiva, que nos permite “sonhar, imaginar e proteger de situações chatas ou desagradáveis”. E nesse sentido, Toohey retoma e generaliza as ideias e o trabalho sobre as emoções que celebrizaram o neurocientista português António Damásio, radicado nos EUA desde 1975 e hoje director do Instituto do Cérebro e da Criatividade na Universidade da Califórnia do Sul (EUA).

“O tédio deriva as suas características da emoção primária [de nojo e] António Damásio explica que o nojo é ‘uma emoção primária que evoluiu em associação com a rejeição automática e benéfica de alimentos tóxicos’”, escreve Toohey no seu livro. Para daí concluir que, da mesma forma, “a emoção adaptativa de tédio evoluiu portanto para facilitar as relações, ao encorajar a rejeição benéfica de situações sociais tóxicas.”

Ironiza o Guardian, com aquele toque de humor anti-francês de que padecem muitos britânicos: “O tédio simples, tal como Toohey o define, parece ser o tipo de tédio que sofremos quando temos duas aulas seguidas de francês, enquanto o tédio existencial é o tipo de tédio que sentimos quando vemos um filme francês” (outra vez Jean-Luc Godard?).

Seja como for, para Toohey o tédio simples é uma coisa boa, porque não só nos obriga a escapar a situações que já se esgotaram e se tornaram becos sem saída, como também nos leva, para o evitar, a procurar e abrir novos trilhos de pensamento. O que significa que o tédio pode estar na raiz da criatividade humana e ser, afinal, a causa de todo o progresso.

 

Fonte: Público.