Der Artikel zeigt erstmals Super Resolution Mikroskopie-Aufnahmen von Molekülen in Bakterien und Viren.
Überall lauern Mikroorganismen, manchmal auch „Mikroben“ genannt, die Gesundheit und Leben von Menschen, Tieren und Pflanzen bedrohen. Zu den „Mikroben“ werden oft auch als ebenfalls submikroskopisch kleine Krankheitserreger die Viren gezählt, z.B. als Verursacher von Grippe, Gelbfieber, Pocken, AIDS, oder bestimmten Formen von Krebserkrankungen.
Mikroskope und Mikroben (Super Resolution Mikroskopie von Bakteren & Viren)Dr. Andrea Nestl
Christoph Cremer, Universität Heidelberg:
Mikroskope und Mikroben, ein Rundgang durch die Medizingeschichte
Überall lauern Mikroorganismen, manchmal auch „Mikroben“ genannt, die Gesundheit und Leben von Menschen, Tieren und Pflanzen bedrohen. Es handelt sich dabei um mikroskopisch kleine Lebewesen, die als einzelne Individuen mit bloßem Auge nicht zu erkennen sind. Beispiele sind Bakterien, die für die Menschheitsgeißeln Pest, Cholera oder Syphilis verantwortlich sind. Zu den „Mikroben“ werden oft auch als ebenfalls submikroskopisch kleine Krankheitserreger die Viren gezählt, z.B. als Verursacher von Grippe, Gelbfieber, Pocken, AIDS, oder bestimmten Formen von Krebserkrankungen.
Zur Spielanleitung diesen Link verwenden:
http://www.slideshare.net/i.f.symptomforschung/serie-1-spielanlitung-zeitgeist-das-sp
Wer sich über das Phänomen moderner Epidemien wundert, der stolpert bei der Hintergrundsuche immer wieder über das Phänomen der möglichen künstlichen Manipulation von Organismen.
Das Thema ist enorm komplex und ein eigenes Studium der Materie sehr zeitaufwändig. Mit der Spielanleitung und dem Spiel haben Sie die Möglichkeit spielerisch und in geselliger Runde einen guten Einstieg zu finden. Aber auch alte Hasen werden ihnen Spass mit Sicherheit daran finden.
One of the wellknown earlier projects of Thomas Schmidt (TSC Consult) was medicalpicture. Thomas Schmidt was the founder and entrepeneur of the biggest westeuropean portal for all media from medicine, health and science.
Super Resolution Microscopy Christoph Cremer "Molecular Constellations 2015"Firstscientix
This document summarizes recent work from the Cremer Lab on superresolution fluorescence microscopy techniques. It discusses:
1) Applications of localization microscopy to image DNA distribution in human cell nuclei at resolutions up to 27,000 DNA sites per square micron and individual human influenza A viruses associated with cell membranes.
2) The 2014 Nobel Prize in Chemistry being awarded to Stefan Hell, a former associate of the Cremer Lab, for his work developing stimulated emission depletion microscopy.
3) Publications from the Cremer Lab in 2014 applying localization microscopy to study chromatin, hepatitis growth factor receptors, and cytomegalovirus proteins.
Through the year with Mr. Tigerli - JanuaryFirstscientix
Mr. Tigerli is a tiger who lives with a human family. In January, Mr. Tigerli enjoyed playing in the snow with the children and eating frozen fish treats. The family had fun making snowmen and snow angels together in the backyard during their winter adventures with Mr. Tigerli.
Mikroskope und Mikroben (Super Resolution Mikroskopie von Bakteren & Viren)Dr. Andrea Nestl
Christoph Cremer, Universität Heidelberg:
Mikroskope und Mikroben, ein Rundgang durch die Medizingeschichte
Überall lauern Mikroorganismen, manchmal auch „Mikroben“ genannt, die Gesundheit und Leben von Menschen, Tieren und Pflanzen bedrohen. Es handelt sich dabei um mikroskopisch kleine Lebewesen, die als einzelne Individuen mit bloßem Auge nicht zu erkennen sind. Beispiele sind Bakterien, die für die Menschheitsgeißeln Pest, Cholera oder Syphilis verantwortlich sind. Zu den „Mikroben“ werden oft auch als ebenfalls submikroskopisch kleine Krankheitserreger die Viren gezählt, z.B. als Verursacher von Grippe, Gelbfieber, Pocken, AIDS, oder bestimmten Formen von Krebserkrankungen.
Zur Spielanleitung diesen Link verwenden:
http://www.slideshare.net/i.f.symptomforschung/serie-1-spielanlitung-zeitgeist-das-sp
Wer sich über das Phänomen moderner Epidemien wundert, der stolpert bei der Hintergrundsuche immer wieder über das Phänomen der möglichen künstlichen Manipulation von Organismen.
Das Thema ist enorm komplex und ein eigenes Studium der Materie sehr zeitaufwändig. Mit der Spielanleitung und dem Spiel haben Sie die Möglichkeit spielerisch und in geselliger Runde einen guten Einstieg zu finden. Aber auch alte Hasen werden ihnen Spass mit Sicherheit daran finden.
One of the wellknown earlier projects of Thomas Schmidt (TSC Consult) was medicalpicture. Thomas Schmidt was the founder and entrepeneur of the biggest westeuropean portal for all media from medicine, health and science.
Super Resolution Microscopy Christoph Cremer "Molecular Constellations 2015"Firstscientix
This document summarizes recent work from the Cremer Lab on superresolution fluorescence microscopy techniques. It discusses:
1) Applications of localization microscopy to image DNA distribution in human cell nuclei at resolutions up to 27,000 DNA sites per square micron and individual human influenza A viruses associated with cell membranes.
2) The 2014 Nobel Prize in Chemistry being awarded to Stefan Hell, a former associate of the Cremer Lab, for his work developing stimulated emission depletion microscopy.
3) Publications from the Cremer Lab in 2014 applying localization microscopy to study chromatin, hepatitis growth factor receptors, and cytomegalovirus proteins.
Through the year with Mr. Tigerli - JanuaryFirstscientix
Mr. Tigerli is a tiger who lives with a human family. In January, Mr. Tigerli enjoyed playing in the snow with the children and eating frozen fish treats. The family had fun making snowmen and snow angels together in the backyard during their winter adventures with Mr. Tigerli.
2024 State of Marketing Report – by HubspotMarius Sescu
https://www.hubspot.com/state-of-marketing
· Scaling relationships and proving ROI
· Social media is the place for search, sales, and service
· Authentic influencer partnerships fuel brand growth
· The strongest connections happen via call, click, chat, and camera.
· Time saved with AI leads to more creative work
· Seeking: A single source of truth
· TLDR; Get on social, try AI, and align your systems.
· More human marketing, powered by robots
ChatGPT is a revolutionary addition to the world since its introduction in 2022. A big shift in the sector of information gathering and processing happened because of this chatbot. What is the story of ChatGPT? How is the bot responding to prompts and generating contents? Swipe through these slides prepared by Expeed Software, a web development company regarding the development and technical intricacies of ChatGPT!
Product Design Trends in 2024 | Teenage EngineeringsPixeldarts
The realm of product design is a constantly changing environment where technology and style intersect. Every year introduces fresh challenges and exciting trends that mold the future of this captivating art form. In this piece, we delve into the significant trends set to influence the look and functionality of product design in the year 2024.
How Race, Age and Gender Shape Attitudes Towards Mental HealthThinkNow
Mental health has been in the news quite a bit lately. Dozens of U.S. states are currently suing Meta for contributing to the youth mental health crisis by inserting addictive features into their products, while the U.S. Surgeon General is touring the nation to bring awareness to the growing epidemic of loneliness and isolation. The country has endured periods of low national morale, such as in the 1970s when high inflation and the energy crisis worsened public sentiment following the Vietnam War. The current mood, however, feels different. Gallup recently reported that national mental health is at an all-time low, with few bright spots to lift spirits.
To better understand how Americans are feeling and their attitudes towards mental health in general, ThinkNow conducted a nationally representative quantitative survey of 1,500 respondents and found some interesting differences among ethnic, age and gender groups.
Technology
For example, 52% agree that technology and social media have a negative impact on mental health, but when broken out by race, 61% of Whites felt technology had a negative effect, and only 48% of Hispanics thought it did.
While technology has helped us keep in touch with friends and family in faraway places, it appears to have degraded our ability to connect in person. Staying connected online is a double-edged sword since the same news feed that brings us pictures of the grandkids and fluffy kittens also feeds us news about the wars in Israel and Ukraine, the dysfunction in Washington, the latest mass shooting and the climate crisis.
Hispanics may have a built-in defense against the isolation technology breeds, owing to their large, multigenerational households, strong social support systems, and tendency to use social media to stay connected with relatives abroad.
Age and Gender
When asked how individuals rate their mental health, men rate it higher than women by 11 percentage points, and Baby Boomers rank it highest at 83%, saying it’s good or excellent vs. 57% of Gen Z saying the same.
Gen Z spends the most amount of time on social media, so the notion that social media negatively affects mental health appears to be correlated. Unfortunately, Gen Z is also the generation that’s least comfortable discussing mental health concerns with healthcare professionals. Only 40% of them state they’re comfortable discussing their issues with a professional compared to 60% of Millennials and 65% of Boomers.
Race Affects Attitudes
As seen in previous research conducted by ThinkNow, Asian Americans lag other groups when it comes to awareness of mental health issues. Twenty-four percent of Asian Americans believe that having a mental health issue is a sign of weakness compared to the 16% average for all groups. Asians are also considerably less likely to be aware of mental health services in their communities (42% vs. 55%) and most likely to seek out information on social media (51% vs. 35%).
AI Trends in Creative Operations 2024 by Artwork Flow.pdfmarketingartwork
Creative operations teams expect increased AI use in 2024. Currently, over half of tasks are not AI-enabled, but this is expected to decrease in the coming year. ChatGPT is the most popular AI tool currently. Business leaders are more actively exploring AI benefits than individual contributors. Most respondents do not believe AI will impact workforce size in 2024. However, some inhibitions still exist around AI accuracy and lack of understanding. Creatives primarily want to use AI to save time on mundane tasks and boost productivity.
Organizational culture includes values, norms, systems, symbols, language, assumptions, beliefs, and habits that influence employee behaviors and how people interpret those behaviors. It is important because culture can help or hinder a company's success. Some key aspects of Netflix's culture that help it achieve results include hiring smartly so every position has stars, focusing on attitude over just aptitude, and having a strict policy against peacocks, whiners, and jerks.
PEPSICO Presentation to CAGNY Conference Feb 2024Neil Kimberley
PepsiCo provided a safe harbor statement noting that any forward-looking statements are based on currently available information and are subject to risks and uncertainties. It also provided information on non-GAAP measures and directing readers to its website for disclosure and reconciliation. The document then discussed PepsiCo's business overview, including that it is a global beverage and convenient food company with iconic brands, $91 billion in net revenue in 2023, and nearly $14 billion in core operating profit. It operates through a divisional structure with a focus on local consumers.
Content Methodology: A Best Practices Report (Webinar)contently
This document provides an overview of content methodology best practices. It defines content methodology as establishing objectives, KPIs, and a culture of continuous learning and iteration. An effective methodology focuses on connecting with audiences, creating optimal content, and optimizing processes. It also discusses why a methodology is needed due to the competitive landscape, proliferation of channels, and opportunities for improvement. Components of an effective methodology include defining objectives and KPIs, audience analysis, identifying opportunities, and evaluating resources. The document concludes with recommendations around creating a content plan, testing and optimizing content over 90 days.
How to Prepare For a Successful Job Search for 2024Albert Qian
The document provides guidance on preparing a job search for 2024. It discusses the state of the job market, focusing on growth in AI and healthcare but also continued layoffs. It recommends figuring out what you want to do by researching interests and skills, then conducting informational interviews. The job search should involve building a personal brand on LinkedIn, actively applying to jobs, tailoring resumes and interviews, maintaining job hunting as a habit, and continuing self-improvement. Once hired, the document advises setting new goals and keeping skills and networking active in case of future opportunities.
A report by thenetworkone and Kurio.
The contributing experts and agencies are (in an alphabetical order): Sylwia Rytel, Social Media Supervisor, 180heartbeats + JUNG v MATT (PL), Sharlene Jenner, Vice President - Director of Engagement Strategy, Abelson Taylor (USA), Alex Casanovas, Digital Director, Atrevia (ES), Dora Beilin, Senior Social Strategist, Barrett Hoffher (USA), Min Seo, Campaign Director, Brand New Agency (KR), Deshé M. Gully, Associate Strategist, Day One Agency (USA), Francesca Trevisan, Strategist, Different (IT), Trevor Crossman, CX and Digital Transformation Director; Olivia Hussey, Strategic Planner; Simi Srinarula, Social Media Manager, The Hallway (AUS), James Hebbert, Managing Director, Hylink (CN / UK), Mundy Álvarez, Planning Director; Pedro Rojas, Social Media Manager; Pancho González, CCO, Inbrax (CH), Oana Oprea, Head of Digital Planning, Jam Session Agency (RO), Amy Bottrill, Social Account Director, Launch (UK), Gaby Arriaga, Founder, Leonardo1452 (MX), Shantesh S Row, Creative Director, Liwa (UAE), Rajesh Mehta, Chief Strategy Officer; Dhruv Gaur, Digital Planning Lead; Leonie Mergulhao, Account Supervisor - Social Media & PR, Medulla (IN), Aurelija Plioplytė, Head of Digital & Social, Not Perfect (LI), Daiana Khaidargaliyeva, Account Manager, Osaka Labs (UK / USA), Stefanie Söhnchen, Vice President Digital, PIABO Communications (DE), Elisabeth Winiartati, Managing Consultant, Head of Global Integrated Communications; Lydia Aprina, Account Manager, Integrated Marketing and Communications; Nita Prabowo, Account Manager, Integrated Marketing and Communications; Okhi, Web Developer, PNTR Group (ID), Kei Obusan, Insights Director; Daffi Ranandi, Insights Manager, Radarr (SG), Gautam Reghunath, Co-founder & CEO, Talented (IN), Donagh Humphreys, Head of Social and Digital Innovation, THINKHOUSE (IRE), Sarah Yim, Strategy Director, Zulu Alpha Kilo (CA).
Trends In Paid Search: Navigating The Digital Landscape In 2024Search Engine Journal
The search marketing landscape is evolving rapidly with new technologies, and professionals, like you, rely on innovative paid search strategies to meet changing demands.
It’s important that you’re ready to implement new strategies in 2024.
Check this out and learn the top trends in paid search advertising that are expected to gain traction, so you can drive higher ROI more efficiently in 2024.
You’ll learn:
- The latest trends in AI and automation, and what this means for an evolving paid search ecosystem.
- New developments in privacy and data regulation.
- Emerging ad formats that are expected to make an impact next year.
Watch Sreekant Lanka from iQuanti and Irina Klein from OneMain Financial as they dive into the future of paid search and explore the trends, strategies, and technologies that will shape the search marketing landscape.
If you’re looking to assess your paid search strategy and design an industry-aligned plan for 2024, then this webinar is for you.
5 Public speaking tips from TED - Visualized summarySpeakerHub
From their humble beginnings in 1984, TED has grown into the world’s most powerful amplifier for speakers and thought-leaders to share their ideas. They have over 2,400 filmed talks (not including the 30,000+ TEDx videos) freely available online, and have hosted over 17,500 events around the world.
With over one billion views in a year, it’s no wonder that so many speakers are looking to TED for ideas on how to share their message more effectively.
The article “5 Public-Speaking Tips TED Gives Its Speakers”, by Carmine Gallo for Forbes, gives speakers five practical ways to connect with their audience, and effectively share their ideas on stage.
Whether you are gearing up to get on a TED stage yourself, or just want to master the skills that so many of their speakers possess, these tips and quotes from Chris Anderson, the TED Talks Curator, will encourage you to make the most impactful impression on your audience.
See the full article and more summaries like this on SpeakerHub here: https://speakerhub.com/blog/5-presentation-tips-ted-gives-its-speakers
See the original article on Forbes here:
http://www.forbes.com/forbes/welcome/?toURL=http://www.forbes.com/sites/carminegallo/2016/05/06/5-public-speaking-tips-ted-gives-its-speakers/&refURL=&referrer=#5c07a8221d9b
ChatGPT and the Future of Work - Clark Boyd Clark Boyd
Everyone is in agreement that ChatGPT (and other generative AI tools) will shape the future of work. Yet there is little consensus on exactly how, when, and to what extent this technology will change our world.
Businesses that extract maximum value from ChatGPT will use it as a collaborative tool for everything from brainstorming to technical maintenance.
For individuals, now is the time to pinpoint the skills the future professional will need to thrive in the AI age.
Check out this presentation to understand what ChatGPT is, how it will shape the future of work, and how you can prepare to take advantage.
The document provides career advice for getting into the tech field, including:
- Doing projects and internships in college to build a portfolio.
- Learning about different roles and technologies through industry research.
- Contributing to open source projects to build experience and network.
- Developing a personal brand through a website and social media presence.
- Networking through events, communities, and finding a mentor.
- Practicing interviews through mock interviews and whiteboarding coding questions.
Google's Just Not That Into You: Understanding Core Updates & Search IntentLily Ray
1. Core updates from Google periodically change how its algorithms assess and rank websites and pages. This can impact rankings through shifts in user intent, site quality issues being caught up to, world events influencing queries, and overhauls to search like the E-A-T framework.
2. There are many possible user intents beyond just transactional, navigational and informational. Identifying intent shifts is important during core updates. Sites may need to optimize for new intents through different content types and sections.
3. Responding effectively to core updates requires analyzing "before and after" data to understand changes, identifying new intents or page types, and ensuring content matches appropriate intents across video, images, knowledge graphs and more.
A brief introduction to DataScience with explaining of the concepts, algorithms, machine learning, supervised and unsupervised learning, clustering, statistics, data preprocessing, real-world applications etc.
It's part of a Data Science Corner Campaign where I will be discussing the fundamentals of DataScience, AIML, Statistics etc.
Time Management & Productivity - Best PracticesVit Horky
Here's my presentation on by proven best practices how to manage your work time effectively and how to improve your productivity. It includes practical tips and how to use tools such as Slack, Google Apps, Hubspot, Google Calendar, Gmail and others.
The six step guide to practical project managementMindGenius
The six step guide to practical project management
If you think managing projects is too difficult, think again.
We’ve stripped back project management processes to the
basics – to make it quicker and easier, without sacrificing
the vital ingredients for success.
“If you’re looking for some real-world guidance, then The Six Step Guide to Practical Project Management will help.”
Dr Andrew Makar, Tactical Project Management
2024 State of Marketing Report – by HubspotMarius Sescu
https://www.hubspot.com/state-of-marketing
· Scaling relationships and proving ROI
· Social media is the place for search, sales, and service
· Authentic influencer partnerships fuel brand growth
· The strongest connections happen via call, click, chat, and camera.
· Time saved with AI leads to more creative work
· Seeking: A single source of truth
· TLDR; Get on social, try AI, and align your systems.
· More human marketing, powered by robots
ChatGPT is a revolutionary addition to the world since its introduction in 2022. A big shift in the sector of information gathering and processing happened because of this chatbot. What is the story of ChatGPT? How is the bot responding to prompts and generating contents? Swipe through these slides prepared by Expeed Software, a web development company regarding the development and technical intricacies of ChatGPT!
Product Design Trends in 2024 | Teenage EngineeringsPixeldarts
The realm of product design is a constantly changing environment where technology and style intersect. Every year introduces fresh challenges and exciting trends that mold the future of this captivating art form. In this piece, we delve into the significant trends set to influence the look and functionality of product design in the year 2024.
How Race, Age and Gender Shape Attitudes Towards Mental HealthThinkNow
Mental health has been in the news quite a bit lately. Dozens of U.S. states are currently suing Meta for contributing to the youth mental health crisis by inserting addictive features into their products, while the U.S. Surgeon General is touring the nation to bring awareness to the growing epidemic of loneliness and isolation. The country has endured periods of low national morale, such as in the 1970s when high inflation and the energy crisis worsened public sentiment following the Vietnam War. The current mood, however, feels different. Gallup recently reported that national mental health is at an all-time low, with few bright spots to lift spirits.
To better understand how Americans are feeling and their attitudes towards mental health in general, ThinkNow conducted a nationally representative quantitative survey of 1,500 respondents and found some interesting differences among ethnic, age and gender groups.
Technology
For example, 52% agree that technology and social media have a negative impact on mental health, but when broken out by race, 61% of Whites felt technology had a negative effect, and only 48% of Hispanics thought it did.
While technology has helped us keep in touch with friends and family in faraway places, it appears to have degraded our ability to connect in person. Staying connected online is a double-edged sword since the same news feed that brings us pictures of the grandkids and fluffy kittens also feeds us news about the wars in Israel and Ukraine, the dysfunction in Washington, the latest mass shooting and the climate crisis.
Hispanics may have a built-in defense against the isolation technology breeds, owing to their large, multigenerational households, strong social support systems, and tendency to use social media to stay connected with relatives abroad.
Age and Gender
When asked how individuals rate their mental health, men rate it higher than women by 11 percentage points, and Baby Boomers rank it highest at 83%, saying it’s good or excellent vs. 57% of Gen Z saying the same.
Gen Z spends the most amount of time on social media, so the notion that social media negatively affects mental health appears to be correlated. Unfortunately, Gen Z is also the generation that’s least comfortable discussing mental health concerns with healthcare professionals. Only 40% of them state they’re comfortable discussing their issues with a professional compared to 60% of Millennials and 65% of Boomers.
Race Affects Attitudes
As seen in previous research conducted by ThinkNow, Asian Americans lag other groups when it comes to awareness of mental health issues. Twenty-four percent of Asian Americans believe that having a mental health issue is a sign of weakness compared to the 16% average for all groups. Asians are also considerably less likely to be aware of mental health services in their communities (42% vs. 55%) and most likely to seek out information on social media (51% vs. 35%).
AI Trends in Creative Operations 2024 by Artwork Flow.pdfmarketingartwork
Creative operations teams expect increased AI use in 2024. Currently, over half of tasks are not AI-enabled, but this is expected to decrease in the coming year. ChatGPT is the most popular AI tool currently. Business leaders are more actively exploring AI benefits than individual contributors. Most respondents do not believe AI will impact workforce size in 2024. However, some inhibitions still exist around AI accuracy and lack of understanding. Creatives primarily want to use AI to save time on mundane tasks and boost productivity.
Organizational culture includes values, norms, systems, symbols, language, assumptions, beliefs, and habits that influence employee behaviors and how people interpret those behaviors. It is important because culture can help or hinder a company's success. Some key aspects of Netflix's culture that help it achieve results include hiring smartly so every position has stars, focusing on attitude over just aptitude, and having a strict policy against peacocks, whiners, and jerks.
PEPSICO Presentation to CAGNY Conference Feb 2024Neil Kimberley
PepsiCo provided a safe harbor statement noting that any forward-looking statements are based on currently available information and are subject to risks and uncertainties. It also provided information on non-GAAP measures and directing readers to its website for disclosure and reconciliation. The document then discussed PepsiCo's business overview, including that it is a global beverage and convenient food company with iconic brands, $91 billion in net revenue in 2023, and nearly $14 billion in core operating profit. It operates through a divisional structure with a focus on local consumers.
Content Methodology: A Best Practices Report (Webinar)contently
This document provides an overview of content methodology best practices. It defines content methodology as establishing objectives, KPIs, and a culture of continuous learning and iteration. An effective methodology focuses on connecting with audiences, creating optimal content, and optimizing processes. It also discusses why a methodology is needed due to the competitive landscape, proliferation of channels, and opportunities for improvement. Components of an effective methodology include defining objectives and KPIs, audience analysis, identifying opportunities, and evaluating resources. The document concludes with recommendations around creating a content plan, testing and optimizing content over 90 days.
How to Prepare For a Successful Job Search for 2024Albert Qian
The document provides guidance on preparing a job search for 2024. It discusses the state of the job market, focusing on growth in AI and healthcare but also continued layoffs. It recommends figuring out what you want to do by researching interests and skills, then conducting informational interviews. The job search should involve building a personal brand on LinkedIn, actively applying to jobs, tailoring resumes and interviews, maintaining job hunting as a habit, and continuing self-improvement. Once hired, the document advises setting new goals and keeping skills and networking active in case of future opportunities.
A report by thenetworkone and Kurio.
The contributing experts and agencies are (in an alphabetical order): Sylwia Rytel, Social Media Supervisor, 180heartbeats + JUNG v MATT (PL), Sharlene Jenner, Vice President - Director of Engagement Strategy, Abelson Taylor (USA), Alex Casanovas, Digital Director, Atrevia (ES), Dora Beilin, Senior Social Strategist, Barrett Hoffher (USA), Min Seo, Campaign Director, Brand New Agency (KR), Deshé M. Gully, Associate Strategist, Day One Agency (USA), Francesca Trevisan, Strategist, Different (IT), Trevor Crossman, CX and Digital Transformation Director; Olivia Hussey, Strategic Planner; Simi Srinarula, Social Media Manager, The Hallway (AUS), James Hebbert, Managing Director, Hylink (CN / UK), Mundy Álvarez, Planning Director; Pedro Rojas, Social Media Manager; Pancho González, CCO, Inbrax (CH), Oana Oprea, Head of Digital Planning, Jam Session Agency (RO), Amy Bottrill, Social Account Director, Launch (UK), Gaby Arriaga, Founder, Leonardo1452 (MX), Shantesh S Row, Creative Director, Liwa (UAE), Rajesh Mehta, Chief Strategy Officer; Dhruv Gaur, Digital Planning Lead; Leonie Mergulhao, Account Supervisor - Social Media & PR, Medulla (IN), Aurelija Plioplytė, Head of Digital & Social, Not Perfect (LI), Daiana Khaidargaliyeva, Account Manager, Osaka Labs (UK / USA), Stefanie Söhnchen, Vice President Digital, PIABO Communications (DE), Elisabeth Winiartati, Managing Consultant, Head of Global Integrated Communications; Lydia Aprina, Account Manager, Integrated Marketing and Communications; Nita Prabowo, Account Manager, Integrated Marketing and Communications; Okhi, Web Developer, PNTR Group (ID), Kei Obusan, Insights Director; Daffi Ranandi, Insights Manager, Radarr (SG), Gautam Reghunath, Co-founder & CEO, Talented (IN), Donagh Humphreys, Head of Social and Digital Innovation, THINKHOUSE (IRE), Sarah Yim, Strategy Director, Zulu Alpha Kilo (CA).
Trends In Paid Search: Navigating The Digital Landscape In 2024Search Engine Journal
The search marketing landscape is evolving rapidly with new technologies, and professionals, like you, rely on innovative paid search strategies to meet changing demands.
It’s important that you’re ready to implement new strategies in 2024.
Check this out and learn the top trends in paid search advertising that are expected to gain traction, so you can drive higher ROI more efficiently in 2024.
You’ll learn:
- The latest trends in AI and automation, and what this means for an evolving paid search ecosystem.
- New developments in privacy and data regulation.
- Emerging ad formats that are expected to make an impact next year.
Watch Sreekant Lanka from iQuanti and Irina Klein from OneMain Financial as they dive into the future of paid search and explore the trends, strategies, and technologies that will shape the search marketing landscape.
If you’re looking to assess your paid search strategy and design an industry-aligned plan for 2024, then this webinar is for you.
5 Public speaking tips from TED - Visualized summarySpeakerHub
From their humble beginnings in 1984, TED has grown into the world’s most powerful amplifier for speakers and thought-leaders to share their ideas. They have over 2,400 filmed talks (not including the 30,000+ TEDx videos) freely available online, and have hosted over 17,500 events around the world.
With over one billion views in a year, it’s no wonder that so many speakers are looking to TED for ideas on how to share their message more effectively.
The article “5 Public-Speaking Tips TED Gives Its Speakers”, by Carmine Gallo for Forbes, gives speakers five practical ways to connect with their audience, and effectively share their ideas on stage.
Whether you are gearing up to get on a TED stage yourself, or just want to master the skills that so many of their speakers possess, these tips and quotes from Chris Anderson, the TED Talks Curator, will encourage you to make the most impactful impression on your audience.
See the full article and more summaries like this on SpeakerHub here: https://speakerhub.com/blog/5-presentation-tips-ted-gives-its-speakers
See the original article on Forbes here:
http://www.forbes.com/forbes/welcome/?toURL=http://www.forbes.com/sites/carminegallo/2016/05/06/5-public-speaking-tips-ted-gives-its-speakers/&refURL=&referrer=#5c07a8221d9b
ChatGPT and the Future of Work - Clark Boyd Clark Boyd
Everyone is in agreement that ChatGPT (and other generative AI tools) will shape the future of work. Yet there is little consensus on exactly how, when, and to what extent this technology will change our world.
Businesses that extract maximum value from ChatGPT will use it as a collaborative tool for everything from brainstorming to technical maintenance.
For individuals, now is the time to pinpoint the skills the future professional will need to thrive in the AI age.
Check out this presentation to understand what ChatGPT is, how it will shape the future of work, and how you can prepare to take advantage.
The document provides career advice for getting into the tech field, including:
- Doing projects and internships in college to build a portfolio.
- Learning about different roles and technologies through industry research.
- Contributing to open source projects to build experience and network.
- Developing a personal brand through a website and social media presence.
- Networking through events, communities, and finding a mentor.
- Practicing interviews through mock interviews and whiteboarding coding questions.
Google's Just Not That Into You: Understanding Core Updates & Search IntentLily Ray
1. Core updates from Google periodically change how its algorithms assess and rank websites and pages. This can impact rankings through shifts in user intent, site quality issues being caught up to, world events influencing queries, and overhauls to search like the E-A-T framework.
2. There are many possible user intents beyond just transactional, navigational and informational. Identifying intent shifts is important during core updates. Sites may need to optimize for new intents through different content types and sections.
3. Responding effectively to core updates requires analyzing "before and after" data to understand changes, identifying new intents or page types, and ensuring content matches appropriate intents across video, images, knowledge graphs and more.
A brief introduction to DataScience with explaining of the concepts, algorithms, machine learning, supervised and unsupervised learning, clustering, statistics, data preprocessing, real-world applications etc.
It's part of a Data Science Corner Campaign where I will be discussing the fundamentals of DataScience, AIML, Statistics etc.
Time Management & Productivity - Best PracticesVit Horky
Here's my presentation on by proven best practices how to manage your work time effectively and how to improve your productivity. It includes practical tips and how to use tools such as Slack, Google Apps, Hubspot, Google Calendar, Gmail and others.
The six step guide to practical project managementMindGenius
The six step guide to practical project management
If you think managing projects is too difficult, think again.
We’ve stripped back project management processes to the
basics – to make it quicker and easier, without sacrificing
the vital ingredients for success.
“If you’re looking for some real-world guidance, then The Six Step Guide to Practical Project Management will help.”
Dr Andrew Makar, Tactical Project Management
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Mikroskope & Mikroben, von den Anfängen bis zur Super Resolution Mikroskopie
1. Erschienen in: Karlheinz Sonntag (Hg.) „Viren und andere Mikroben: Heil oder
Plage? Zum 100. Todestag von Robert Koch“, S. 99 – 135. Universitätsverlag
WINTER Heidelberg (2011).
“Mikroskope und Mikroben“
Christoph Cremer
Kirchoff-Institut für Physik und Institut für Pharmazie und Molekulare
Biotechnologie/BioQuant, Universität Heidelberg
Überall lauern Mikroorganismen, manchmal auch „Mikroben“ genannt, die
Gesundheit und Leben von Menschen, Tieren und Pflanzen bedrohen. Es handelt
sich dabei um mikroskopisch kleine Lebewesen, die als einzelne Individuen mit
bloßem Auge nicht zu erkennen sind. Beispiele sind Bakterien, die für die
Menschheitsgeißeln Pest, Cholera oder Syphilis verantwortlich sind. Zu den
„Mikroben“ werden oft auch als ebenfalls submikroskopisch kleine Krankheitserreger
die Viren gezählt, z.B. als Verursacher von Grippe, Gelbfieber, Pocken, AIDS, oder
bestimmten Formen von Krebserkrankungen.
Warum sind diese „Feinde der Menschheit“ jahrtausendelang unentdeckt geblieben?
Zwar wussten die Ärzte schon lange, dass bestimmte Krankheiten unter geeigneten
Umweltbedingungen auftraten. Man wusste auch um den Zusammenhang zwischen
dem Auftreten bestimmter Tiere, z.B. Ratten, und todbringenden Krankheiten wie der
Pest. Aber das waren Korrelationen, keine direkten Beobachtungen.
Warum hat in vielen Jahrhunderten medizinischer und wissenschaftlicher Tätigkeit
kein einziger Arzt oder Naturforscher einzelne Mikroben sehen können?
Heute wissen wir: Sie sind zu klein: Die typische Größe eines Bakteriums liegt im
Mikrometerbereich (1 µm = 1/1000 mm). Die kleinste mit bloßem Auge sichtbare
Struktureinzelheit („optische Auflösung“ genannt) ist hingegen um die 100
Mikrometer, also rund 100x größer als ein einzelnes Bakterium. Dies bedeutet, dass
diese einfach nicht sichtbar waren. Noch mehr gilt dies von den Viren. Mit typischen
Abmessungen von 0.05 Mikrometer bis 0.1 Mikrometer sind sie rund tausendmal
kleiner als die kleinste mit bloßem Auge sichtbare Struktureinzelheit.
Mikroben wie Bakterien und Viren sind also viel zu klein, um ohne Instrumente
sichtbar zu sein. Dies liegt an der Organisation unseres Sehvermögens: Ein Objekt
wird nach den Gesetzen der Optik durch die Augenlinse auf der Retina abgebildet.
Damit zwei Punkte eines Gegenstandes getrennt voneinander wahrgenommen
werden können, müssen sie unterschiedliche Sehzellen treffen. Daraus ergibt sich
eine kleinste sichtbare Struktureinzelheit oder die oben genannte Auflösung von ca.
100 µm oder 0.1 mm.
1
2. Daher war die Menschheit den aufgrund ihrer Mikrogrößen unsichtbaren Mikroben
fast hilflos ausgeliefert: Ein gnadenloser Feind mit Tarnkappe hat leichtes Spiel.
Um sich gegen Mikroben wirksam wehren zu können, ist es notwendig, ihnen diese
Tarnkappe zu entreißen. Dann kann man sehen, wo sie sich aufhalten, wie sie sich
vermehren, welche Wirkungen bestimmte Abwehrmaßnahmen haben usw. Die
Fundamentalmethode hierzu wurde in optischen Systemen gefunden. Im einfachsten
Fall bestehen sie aus einer einzigen Linse, wie sie jeder als Lupen kennt. Sie
erlauben es, vergrößerte Abbildungen kleiner Objekte zu gewinnen. Damit wird der
Abstand der einzelnen Bildpunkte auf der Retina größer, verschiedene Sehzellen
werden getroffen; der kleinste Abstand von zwei Punkten des Gegenstandes, der auf
der Retina verschiedene Sehzellen aktiviert, bestimmt die so erreichbare Auflösung.
Optische Systeme zur Vergrößerung des Bildes von Gegenständen gab es bereits
seit Jahrtausenden; so sollen schon altorientalische Könige und römische Kaiser
über geschliffene Edelsteine als Lupen verfügt haben, mit deren Hilfe sie
Kleingeschriebenes besser lesen konnten. Aber auch die Glastechnik und die
Herstellung der zur Halterung erforderlichen Mechanik waren seit drei Jahrtausenden
so weit fortgeschritten, dass der Bau von stark vergrößernden Linsensystemen,
Mikroskopen, technisch möglich gewesen wäre. Doch hatte daran offenbar niemand
ein Interesse, mit fatalen Folgen für die Gesundheitsgeschichte der Menschheit.
Dies änderte sich erst vor ein paar hundert Jahren, mit dem Bau erster stark
vergrößernder optischer Systeme Ende des 16. und Beginn des 17. Jahrhunderts.
Wohl nicht zufällig geschah diese Erfindung in Italien und in den Niederlanden, wo
die Textilindustrie blühte; Mikroskope erlaubten erstmals eine eingehende Analyse
der Qualität von Wolle und Tuch, einer Grundlage des damaligen „Wohlstands der
Nationen“. Das erste allgemein verbreitete Werk über die Mikroskopie veröffentlichte
jedoch 1665 ein englischer Physiker. Robert Hooke, der Sekretär der Royal Society
in den Jahren 1677-1682, beschrieb in seiner „Micrographia or some physiological
descriptions of minute bodies, made by magnifying glasses with observations and
inquiries thereupon" Beobachtungen, darunter mikroskopische Untersuchungen über
das Gewebe der Pflanzen. Dort entdeckte er kleine Struktureinheiten, „cells“, von
„cellulae“. In der damaligen Weltwissenschaftssprache, dem mittelalterlichen Latein,
bezeichnete „cellula“ ein leeres Kämmerchen. Die fundamentale Bedeutung dieser
„Kämmerchen“ blieb jedoch noch für weitere rund 170 Jahre im Dunkeln.
Die frühen Mikroskopiker des 17. Jahrhunderts beobachteten nicht nur Wolle, Tuch,
Kork, kleine Lebewesen in Wassertropfen oder Spermien. Der zusammen mit Robert
Hooke berühmteste von ihnen, der Niederländer Antonie van Leeuwenhoek (1632 –
1723) war der erste, der mithilfe seines einfachen, nur aus einer einzigen - sehr
kurzbrennweitigen und daher stark vergrößernden - Linse bestehenden Mikroskops
einzelne Bakterien nicht nur für sich beobachtete, sondern dieses Wissen auch
mitteilte (Abb. 1).
Die von Leeuwenhoek erzielte optische Auflösung, also die kleinste noch erkennbare
Struktureinzelheit, gemessen als der kleinste noch erkennbare Abstand von zwei
Objektpunkten, lag bereits bei wenigen Mikrometer. Das reichte, um unter günstigen
Bedingungen einzelne Zellen und sogar einzelne Bakterien sehen zu können.
2
3. Abb. 1. Links: Leeuwenhoeks Mikroskop. Das "Mikroskop" Leeuwenhoeks besteht aus einer
bikonvexen Linse, die zwischen zwei Metallplätchen fixiert ist. Das biologische Objekt wird
auf der Spitze einer Nadel befestigt und kann mit Hilfe einiger Schrauben in den Fokus der
Linse gebracht werden. Der Beobachter führt die der Nadelspitze abgewandte Seite der
Linse unmittelbar vor sein Auge. (1) Das gebrauchsfertige Instrument von hinten; (2) und (3)
zeigen Details der mechanischen Teile zum Justieren des Objekts; (4) zeigt einen
schematischen Längsschnitt. Aus [1].
Rechts: Zeichnungen von Bakterien aus dem Zahnbelag Leeuwenhoeks. (Quelle:
Wikipedia).
Wegen ihrer Bedeutung für die Naturwissenschaften, die Technik und die Medizin
wird die Mikroskopie allgemein als eine der wichtigsten Entdeckungen in der
Geschichte der Menschheit angesehen. Antonie van Leeuwenhoek hat sie zwar nicht
erfunden, aber zu einer ersten Vollkommenheit geführt. Leider hat er das Geheimnis
seiner damaligen „Supermikroskope“ mit ins Grab genommen; aber auch abgesehen
davon bestand kein großes Interesse von Seiten der Fachleute, sich mit den von
Leeuwenhoek gefundenen Kuriosa und ihren Konsequenzen für die Bekämpfung von
Infektionskrankeiten auseinanderzusetzen. Warum sollte man das auch tun? Dazu
hätte man erst einmal wissen müssen, dass so winzige Gebilde irgendeine
Bedeutung für den Menschen haben. Ihr Vorkommen im Zahnbelag war dafür noch
kein Beweis. Hinzu kam, dass die Mikroskope dieser Zeit vielfältigste technische
Probleme hatten, die scharfe, klare Beobachtungen der Mikrowelt außerordentlich
erschwerten.
Bakterien wurden erst wieder im 19. Jahrhundert systematisch beobachtet, als
mehrlinsige, robuste und „bedienungsfreundliche“ Mikroskopsysteme mit besserer
Beleuchtung und guten Korrekturen von Linsenfehlern gebaut werden konnten.
Abb. 2 zeigt ein Mikroskop des Jenaer Botanik-Professors Matthias Schleiden; es
stammte aus einer optischen Werkstätte in Paris, damals wie heute eine der Zentren
europäischer Wissenschaft.
3
4. Abb. 2. Beispiel für ein Hochleistungsmikroskop von Matthias Schleiden. Links: Skizze eines
zusammengesetztes Mikroskops der Pariser Firma Oberhäuser aus einer Publikation von
Schleiden (1855); zitiert nach [1]. Rechts: Abbildung eines Oberhäusermikroskops (1849/50)
aus der Mikroskopsammlung der University of California Berkeley (Photo C.Cremer).
Die nutzbare optische Auflösung solcher Mikroskope betrug ca. 1µm oder 1/1000
Millimeter. Dies war zwar noch nicht wesentlich besser als das was Leeuwenhoek
170 Jahre früher schon erreicht hatte. Aber ein Vergleich der beiden Mikroskope
(Abb. 1 und 2) zeigt große Unterschiede in der praktischen Brauchbarkeit: Statt einer
winzigen einzelnen Linse, die man sich ganz nahe ans Auge halten musste, benutzte
Schleiden ein mehrlinsiges System, mit dessen Hilfe man das Objekt stark
vergrößert bequem durch ein Okular betrachten konnte; statt einem auf einer Spitze
notdürftig befestigten Objekt mit einer „wackeligen“ Haltemechanik (wenn auch in
den besseren Modellen Leeuwenhoeks aus Silber gefertigt) zum freihändigen Halten
gab es bei Schleiden ein robustes Stativ aus Stahl, das solide auf einem Tisch stand
und in dem das Objekt und sein Abstand zur Frontlinse des Mikroskops präzise und
stabil eingestellt werden konnte; statt das Objekt mit einem einlinsgen
„Minimikroskop“ irgendwie ins Tageslicht zu halten und zu hoffen, dass die
Beleuchtungsstärke und –Richtung ausreichend und passend war, gab es bei
Schleiden ein Lichtsammelsystem, um das Objekt optimal beleuchten zu können,
entweder von unten im Durchlicht, oder von oben im Auflicht. Die mechanische
Stabilität wurde durch einen mit Blei gefüllten Sockel unterstützt (bei heutigen
„Supermikroskopen“ dienen dazu tonnenschwere Steintische). Um eine präzise
Scharfeinstellung zu erreichen, wurde ein Federmechanismus verwendet. Ein
4
5. plankonkaver Beleuchtungsspiegel ermöglichte eine Durchlichtbeleuchtung des
Objekts von unten; eine Sammellinse ermöglichte eine Auflichtbeleuchtung von
oben. Die Präparate befanden sich bei diesem Mikroskop auf Objektträgern aus
Glas, die mit Stahlfedern auf dem Objekttisch angeklemmt wurden, ganz wie bei
heutigen konventionellen Systemen. Damit gehörten solche Mikroskope wohl zum
Besten, was in der ersten Hälfte des 19. Jahrhunderts an hochauflösender Optik zu
haben war.
Dank dieser und anderer „wissenschaftlichen Kleinigkeitskrämerei“ (wie Schleiden
selbst es ironisch nannte), insbesondere auch der Entwicklung von Fixierungs- und
Färbemethoden, war es nun mit derartigen Mikroskopsystemen in der ersten Hälfte
des 19. Jahrhunderts möglich geworden, biologische Mikrostrukturen und sogar
Bakterien unter Bedingungen zu beobachten, die systematisch angelegte
Forschungen ermöglichten.
Eine der ersten epochalen Entdeckungen, die auch für unser Thema von größter
Bedeutung sind, war die auf solchen Mikroskopbeobachtungen basierende
Begründung der Zelltheorie durch Schleiden und Schwann (Abb. 3).
Abb. 3: Links: Mikroskop-Abbildung von pflanzlichem Zellgewebe aus Schleiden
(1838);Rechts: Mikroskopabbildung von tierischem Zellgewebe aus Schwann (1839).
Aus [1]
Schwann und Schleiden waren nicht die ersten, die in Geweben von Lebewesen
solche merkwürdigen Mikrogebilde mit distinkten Struktureigenschaften beobachten
konnten. Im Gegensatz zu den Beobachtungen von Leeuwenhoek und Hooke
verband Schleiden seine Beobachtungen von „cellulae“ jedoch mit einer
Interpretation, die den Beginn der modernen Biologie, Medizin, Hygiene und
Mikrobiologie markiert. In seiner epochalen Arbeit von 1838 (Abb. 4) postulierte
Schleiden: „Jede nur etwas höher ausgebildete Pflanze ist aber ein Aggregat von
völlig individualisierten, in sich abgeschlossenen Einzelwesen.“
Diese Formulierungen erinnern an eine von Goethe bereits drei Jahrzehnte früher
niedergeschriebene Vision: „Jedes Lebendige ist kein Einzelnes, sondern eine
Mehrheit; selbst insofern es uns als Individuum erscheint, bleibt es doch eine
Versammlung von lebendigen selbständigen Wesen, die der Idee, der Anlage nach
gleich sind“ . Schleiden war Jurist wie Goethe, Professor an der jahrzehntelang unter
Goethes Oberaufsicht stehenden Universität Jena und Direktor des von Goethe dort
5
6. stark geförderten botanischen Gartens. Die Vermutung liegt nahe, dass der Botaniker
Schleiden auch dessen 1817 publizierte Schriften zur Morphologie der Pflanzen
kannte, die diese bereits 1807 formulierte Idee zur Grundstruktur des Lebendigen
enthält. Nun wird die Zelle zur zentralen Idee des Lebens. Was jedoch bei Goethe
ein ganz allgemeines, ursprünglich von makroskopisch sichtbaren Blättern
ausgehendes Konzept war, das wurde bei Schleiden und Schwann zu einem
mikroskopischen Ausgangspunkt der Lebenswissenschaften.
Einige Jahre später (1854/1855) zog der Arzt Rudolf Virchow die für die weitere
Entwicklung von Biologie und Medizin entscheidende Konsequenz „omnis cellula e
cellula“, jede Zelle stammt von einer anderen Zelle ab: „Der menschliche Körper setzt
sich, wie alle organischen Körper, aus feinen Elementen zusammen, von denen
jedes in letzter Instanz auf eine einzige Zelle und ihr Wirkungsgebiet zurückgeführt
werden kann.“ Folglich können Krankheiten vielfach auf Änderungen von Zellen
zurückgeführt werden, auch auf solche, bei denen ’Mikroben’ beteiligt sind. So gibt
es von Virchow eine Veröffentlichung (1885) mit dem Titel „Der Kampf von Zellen
und Bakterien“; auf einem Kongress nannte er die Kenntnis der Bakterien, verglichen
mit der Kenntnis der Zellen, „ein anderes, nicht geringeres, vielleicht sogar
wichtigeres Produkt der wissenschaftlichen Bemühungen unserer Zeiten“ (zitiert nach
H. Schipperges, Rudolf Virchow [2003]). Es kommt also auf beides an, eine bessere
Kenntnis der Zellen und der Mikroben, sowie ihrer Wechselwirkungen.
Abb. 4. Titelseite aus Schleidens Arbeit von 1838 zur Begründung der Zelltheorie
Aus [1].
6
7. Eine wesentliche Voraussetzung für die Weiterentwicklung der Mikroskopie und
damit der verbesserten Beobachtung auch von „Mikroben“ war die Herstellung von
hochwertigen optischen Gläsern mit ganz bestimmten Eigenschaften. Nur so
konnten die vielfachen Abbildungsfehler von Mikroskopen vermindert werden, die die
Nutzung dieser Methoden in der biologischen und medizinischen Forschung
Jahrhunderte lang behindert hatten. Hierauf beruhte ganz wesentlich die Entwicklung
der leistungsfähigsten Mikroskope des 19. Jahrhunderts, die die Grundlage für die
rasche Entwicklung der Mikrobiologie als Wissenschaft möglich machten. Auch in
diese Entwicklung sind der Jenaer Professor Matthias Schleiden und Johann
Wolfgang von Goethe als der für die Universität Jena zuständige „Staatsminister für
Wissenschaft und Kunst“ eingebunden. Untersuchungen zur Farbenlehre
veranlassten Goethe um 1825 zur Gründung einer Glashütte für Präzisionsoptik in
Jena, wobei er als Sponsorin Maria Pawlowna (1786 – 1859), die Gemahlin von
Großherzog Carl Friedrich (1783 – 1853) und Schwester der Zaren Alexander I. und
Nikolaus I. gewinnen konnte. Über staatliche Mittel und großzügiges Sponsoring
hinaus sind jedoch auch geeignete Köpfe notwendig. Auch hier hatte Goethe eine
gute Hand; als Direktor seiner Glashütte ernannte er seinen „Farbenassistenten“
Friedrich Körner und berief ihn zum Dozenten an der Universität Jena. Dort hatte
Körner einen tüchtigen Studenten mit Namen Carl Zeiss, der aus einer wahrhaft
interdisziplinären Familie mit vielen Juristen und Theologen aber auch mit tüchtigen
Handwerkern stammte. Dieser gründete mit Unterstützung von Matthias Schleiden in
Jena eine kleine Optikwerkstätte und fing an, Mikroskope zu fertigen. Dabei spielte
die Verbindung zum wissenschaftlichen Apparatebau von Anfang an eine
wesentliche Rolle. Diese wurden damals nach empirischen Regeln gebaut.
Jeder Physiker weiß, dass bei einer erfolgreichen Instrumentenentwicklung zur
praktischen Erfahrung die Theorie hinzukommen muss. (Man stelle sich vor, der
Large Hadron Collider im CERN oder das Hubble-Teleskop sollten durch „Pröbeln“
entwickelt werden, undenkbar). Carl Zeiss war der erste, der die Bedeutung der
Theorie auch für den Bau von Hochleistungsmikroskopen erkannte. Daher
engagierte er 1866 den Jenaer Physiker und späteren Direktor der dortigen
Universitäts-Sternwarte Ernst Abbe (1840 – 1905). Das Ziel war, auf der Basis
quantitativer numerischer Rechnungen (heute würde man das „Optik-Simulationen“
nennen) die Entwicklung neuer, außerordentlich leistungsfähiger Mikroskopsysteme
zu ermöglichen. Die Idee war gut: Aber zunächst rechnete Abbe viele Jahre lang
ohne Erfolg; unter heutigen Industriebedingungen oder universitären
Exzellenzförderungen wäre er wohl kläglich gescheitert. Doch Abbe und Zeiss hielten
durch, und um 1880 waren die von Zeiss gebauten Mikroskope die besten der Welt.
7
8. Abb. 5. Links: Ernst Abbe (1840 –1905), Professor der Physik an der Universität Jena;
Partner von Carl Zeiss, später Alleininhaber der Firma; Begründer der Carl Zeiss Stiftung,
der Eigentümerin der Carl Zeiss AG und der Schott AG (Quelle: Wikipedia).
Neue Mikroskope von Zeiss und anderen führenden Optikherstellern ermöglichten
die Begründung der modernen Mikrobiologie. Einer der wichtigsten ’Helfer der
Menschheit’ auf diesem Gebiet war Robert Koch (1843 – 1910): Die neuen
Mikroskope mit ganz wesentlich verbesserter Mechanik, Beleuchtung,
Fehlerkorrektur und Auflösung erlaubten erstmals die detaillierte Analyse vieler
bakterieller Krankheitserreger, wie Milzbrand, Tuberkulose, Cholera, Pest. Mit
diesem Wissen wurden Diagnostik, Hygiene und Therapie auf völlig neue
Grundlagen gestellt; nunmehr wurde ein effektiver Kampf gegen diese Geißeln der
Menschheit möglich: Die Tarnkappe war weg.
Koch war sich der Bedeutung der Optik für seine Forschungen voll bewusst. In
einem Brief an die Geschäftsleitung von Carl Zeiss aus dem Jahre 1904 schreibt
der Geheime Medizinalrat:
„Sehr geehrter Herr,
Ich erinnere mich noch sehr gut der Zeit, als ich zum ersten Male ein
Öl[immersions]system in die Hand bekam… und mich von den gewaltigen
Fortschritten überzeugte, die der optischen Werkstätte von Carl Zeiss unter
Professor Abbe‘s genialem Beirat gelungen war…Oft habe ich später mit
Bewunderung der Zeiß‘schen optischen Werkstätte gedacht…
Mit größter Hochachtung, ergebenst
Robert Koch“
Diese von Zeiss gefertigten Mikroskopsysteme hatten eine brauchbare optische
Auflösung um die 0.2 µm. Damit konnten Koch und seine Kollegen nun
Formunterschiede zwischen einzelnen Bakterien gut voneinander unterscheiden,
hinzu kam die Anfärbbarkeit dieser Mikroben mit geeigneten Farbstoffen. Diese
Techniken trugen ganz wesentlich bei zur Diagnostik vieler von Mikroben
verursachten Krankheiten. Für seine Pionierleistungen wurde Koch im Jahre 1905
mit dem Nobelpreis für Medizin ausgezeichnet.
8
9. So gut die neuen Hochleistungsmikroskope auch waren, sie hatten ein gravierendes
Problem: Struktureinzelheiten von Mikroben und ihrer oft todbringenden
Wechselwirkungen mit den Zellen des Körpers konnten nur erkannt werden, wenn
diese größer waren als ungefähr 0,2 µm, also größer als 0,2/1000 mm. Unterhalb
dieser Auflösungsgrenze war das Bild so verschwommen wie eine Zeitung aus
großer Entfernung für das bloße Auge. Allen Verbesserungsversuchen zum Trotz
konnte diese Grenze der „konventionellen“ Lichtmikroskopie nicht überwunden
werden. Auch die besten Mikroskope von Zeiss, Leitz und anderen erlaubten keine
Erkennung von Struktureinzelheiten in den Bakterien (Abb. 6); bei vielen
Infektionskrankheiten war es noch schlimmer, da konnte man die Existenz von
Erregern nur indirekt nachweisen. Aufgrund solcher Indizien wusste man, dass diese
noch viel kleiner sein mussten als Bakterien; heute wissen wir, dass es sich dabei um
Viren handelt.
Abb.6. Lichtmikroskopisches Bild von Bakterien bei der ‚konventionellen’ Bestauflösung
Aus [2].
Ernst Abbe hat sich intensiv mit diesem erstaunlichen und beunruhigenden
Phänomen befasst und die Lösung gefunden. Offenbar handelte es sich hier nicht
mehr um ein technisches Problem, sondern um eine fundamentale Grenze der mit
Optik möglichen Naturerkenntnis. Im Jahre 1873 fasste er seine Erkenntnisse in
einer der berühmtesten Arbeiten der Physik zusammen. Diese enthielt so viele
mathematische Formeln wie die Farbenlehre Goethes, nämlich keine einzige;
dennoch war der physikalische Gehalt so brisant, dass er seitdem in jeder Physik-
Grundvorlesung zur Sprache kommt. Abbe postulierte [3],
„…dass….die Unterscheidungsgrenze [beim Mikroskop]…doch niemals über [den
Betrag] der halben Wellenlänge des blauen Lichts um ein Nennenswertes
hinausgehen wird“
9
10. Eine „halbe Wellenlänge des blauen Lichts“, das sind ungefähr 0,2 µm (0,2/1000
mm) oder 200 nm in der Sprache der heutigen Physik der Nanowelt (1 nm = 1
tausendstel Mikrometer = 1 Millionstel Millimeter).
Allgemein gilt nach Abbe, dass der kleinste Abstand d zwischen zwei punktförmigen
Objekteinzelheiten, der in irgendeinem – existierenden oder möglichen - Mikroskop
noch unterschieden (aufgelöst) werden kann, wesentlich von der Wellenlänge des
λ
zur Abbildung verwendeten Lichts bestimmt wird (Abb. 7 rechts) Der Faktor nsinα (α
ist der sog. halbe Aperturwinkel) kann aus mathematischen Gründen nicht größer
werden als der Brechnungsindex n, eine optische Materialgröße, die typischerweise
um maximal 1,5 liegt; typische Werte für nsin sind be i Hochleistungsmikroskopen
α
1,2 bis 1,4. Damit wäre die mit irgendeinem Mikroskop mögliche Auflösung auf etwa
1/3 bis 1/2 der Wellenlänge im Vakuum beschränkt; bei den üblicherweise zur
Beobachtung verwendeten Lichtwellenlängen ist dies aus praktischen Gründen etwa
0,2 µm.
Abb. 7. Links: Das Abbe Denkmal vor der Universität Jena. Auf der Kugel befindet sich die
berühmte Formel für die Grenzen der optischen Auflösung (rechts vergrößert). Photo
C.Cremer
Ein berühmter Zeitgenosse von Abbe in England, Lord Rayleigh, kam 1896 zu einer
fast identischen Formel [4]. Im Gegensatz zu Abbe gingen seine Überlegungen aber
von der Annahme aus, dass sich die Objektpunkte wie selbstleuchtende Körper
verhalten, so wie es Sterne tun. Im Gegensatz hierzu hatte Abbe angenommen, dass
das Objekt das Licht in einer strukturabhängigen Weise ablenkt. Da die von dem
Abbe gefundene Grenze für die lichtoptische Grenze der Naturerkenntnis aber als so
fundamental angesehen wurde, entspann sich eine Auseinandersetzung über die
physikalischen Grundlagen der beiden Aussagen. Gab es zwischen der um 20
Jahre verspäteten Erkenntnis des Engländers Rayleigh und der des Deutschen Abbe
einen in der Physik begründeten wichtigen Unterschied? Wenn nicht, dann gebührte
der Ruhm allein Abbe. Diese auch mit nationaler Leidenschaft über mehrere
Jahrzehnte sich hinziehenden Diskussionen fanden um 1930 ein Ende mit der
10
11. sogenannten Äquivalenz-Theorie, also mit der Feststellung, dass keine essentiellen
physikalischen Unterschiede zwischen Abbe und Rayleigh bestehen. Dies hatte zur
Folge, dass rund ein halbes Jahrhundert lang niemand mehr daran zweifelte, dass
der einzige Weg zu einer Erhöhung der Auflösung darin bestand, die Wellenlänge
kürzer zu machen als 0,4 µm, also kürzer als mit sichtbarem Licht möglich.
Bereits Rayleigh schlug die Verwendung von ultraviolettem Licht vor, und dies wurde
auch realisiert; allerdings wird Glas im ultravioletten Bereich bei Verkürzung der
Wellenlänge schnell undurchsichtig, sodass die Auflösungsverbesserungen auf
diesem Wege relativ gering waren. Als wesentlich viel versprechender erwiesen sich
hier zwei noch zu Lebzeiten von Abbe und Rayleigh am Ende des 19. Jahrhunderts
gemachte fundamentale Neuerungen der Physik, die Entdeckung des Elektrons und
die technische Möglichkeit, Hochvakua zu erzeugen. In den Zwanzigerjahren des
letzten Jahrhunderts kam dann die Entdeckung der Welleneigenschaften von Materie
hinzu: Für Elektronen ergeben sich hieraus sehr kleine Wellenlängen, die Bruchteile
eines Nanometer betrugen. Nach der Abbe-Formel (Abb. 7 rechts) eröffnete dies die
Möglichkeit der Konstruktion von Elektronenmikroskopen, mit denen heute in den
Materialwissenschaften optische Auflösungen bis in den atomaren Bereich möglich
geworden sind, und bis zu molekularen Dimensionen (wenige nm) bei Biostrukturen.
Dank diesen auf energiereicher Strahlung basierenden
Ultrastrukturanalysemethoden konnten viele Geheimnisse der Nanowelt aufgedeckt
werden. Jetzt konnten sogar einzelne Viren sichtbar gemacht werden, die sich
aufgrund ihrer Kleinheit der lichtmikroskopischen Analyse entzogen hatten.
Dennoch blieb eine Verbesserung der lichtoptischen Auflösung, also eine
Verkleinerung des detektierbaren minimalen Abstandes zweier punktförmiger
Objekte unter Verwendung von sichtbarem Licht, von größtem Interesse. Dafür gibt
es eine große Zahl praktischer Gründe. So sind Beobachtungen von Bakterien und
Viren mit Elektronenmikroskopen sehr aufwendig und zeitraubend. In der
Mikrobiologie kommt es aber oft darauf an, Krankheitserreger routinemäßig und
schnell nachzuweisen; auch in der Forschung wäre es ein großer Vorteil, z.B. die
Anheftung von Viren an Zellmembranen und ihre Beeinflussung durch Arzneimittel
einfach und schnell auf der Ebene der einzelnen „Mikroben“ analysieren zu können.
Ein weiteres Problem der Elektronenmikroskopie und anderer Ultrastrukturverfahren
ist die mit den kleinen Wellenlängen verbundene energiereiche Strahlung; diese ist
so groß, dass Beobachtungen lebender Zellen – von Ausnahmefällen abgesehen –
nicht möglich ist. Sichtbares Licht hingegen wird von Zellen und Mikroben sehr viel
besser ertragen.
Bereits Abbe hielt es für grundsätzlich möglich, dass eines Tages neue Methoden
gefunden würden, die eine lichtoptische Abbildung weit jenseits der von ihm
formulierten Erkenntnisgrenze möglich machen könnten. In der oben zitierten Arbeit
[3] zur Grenze der Auflösung schrieb er schon 1873, die Grenze von etwa einer
halben Wellenlänge sei nur gültig, „… so lange nicht Momente geltend gemacht
werden, die ganz außerhalb der Tragweite der aufgestellten Theorie liegen…”
Fundamentale neue Entdeckungen in Physik, Optoelektronik,
Informationstechnologie und Molekularbiologie ermöglichen heute die Überwindung
der „Abbe/Rayleigh Grenze“ der lichtoptischen Naturerkenntnis: In der Physik ist
dies insbesondere die Entwicklung von Lasern im sichtbaren Spektralbereich sowie
von hochsensitiven Lichtdetektoren; die digitale Bildverarbeitung auf der Basis
leistungsfähiger kleiner Computer; und die immer besseren Einsichten in die optische
Physik von organischen Molekülen und anderen ’Nanoeinheiten’; in den
Lebenswissenschaften sind für die „superauflösende“ Lichtmikroskopie oder
„Nanoskopie“ wesentlich geworden die molekulare Zellbiologie, die Entdeckung der
11
12. DNA Struktur, des genetischen Codes sowie Techniken, die molekülspezifische
optische Markierungen erlauben.
Auf der Grundlage dieser neuen, von Abbe und Rayleigh nicht vorhersehbaren
Entwicklungen sind in den letzten beiden Jahrzehnten eine Reihe von Methoden
entwickelt worden, die bislang für absolut gehaltene Grenze der optischen Auflösung
in der Lichtmikroskopie in dramatischer Weise zu überwinden, genauer gesagt zu
umgehen. Seit kurzem werden diese „Nanoskopie“-Methoden auch für die
Erforschung von „Mikroben“ nutzbar gemacht.
Als Beispiel für eine solche ‚nanoskopische’ Überwindung der konventionellen
Grenze der optischen Auflösung soll hier das Verfahren der „ Lokalisations
Mikroskopie“ oder „Spektralen Präzisionsdistanzmikroskopie“ (SPDM) näher
beschrieben werden. Ihre Anfänge reichen bis in die 1990iger Jahre zurück, als sie
erstmals konzipiert und in „Proof-of-Principle“ Experimenten realisiert wurde [5-8].
Lokalisationsmikroskopische Methoden haben es ermöglicht, zelluläre
Nanostrukturen, Bakterien und sogar Viren mit sichtbarem Licht und bei
Raumtemperatur zu analysieren und damit Perspektiven eröffnet, wesentliche
Fragen der molekularen Biophysik, Zellbiologie und molekularmedizinischen
Forschung mit wichtigen biologischen, systembiologischen und medizinischen
Anwendungen angehen zu können.
Der Ausgangspunkt der Überlegungen zur Überwindung der Auflösungsgrenze der
konventionellen Lichtmikroskopie (ca. 0,2 µm) sind die Überlegungen von Lord
Rayleigh: Wie schon erwähnt, ging dieser von der Annahme aus, dass der zu
untersuchende Gegenstand aus vielen sehr kleinen ‚punktförmigen’
selbstleuchtenden Objekten besteht. In der Astronomie ist das beim Licht von
Sternen der Fall; in der Biologie ist eine Selbstleuchtern entsprechende
Lichtemission möglich, wenn in der zu untersuchenden Biostruktur dort befindliche
Moleküle durch das Beleuchtungslicht zur Fluoreszenz angeregt werden können:
Das heißt dass sie Licht einer anderen Wellenlänge aussenden als derjenigen des
Beleuchtungslichtes. Jeder kennt zum Beispiel das Phänomen, dass bestimmte
Materialien, die mit ultraviolettem Licht bestrahlt werden, dann grün oder gelb
aufleuchten. Auch chemische Reaktionen können zu einer ähnlichen
Lichtaussendung führen.
Aufgrund der Wellennatur der Lichtausbreitung wird ein punktförmiges Objekt aber
sogar mit einem Hochleistungsobjektiv nicht als Punkt abgebildet, sondern es
erscheint als kleines Scheibchen mit einem Durchmesser von etwa einer halben
Wellenlänge mal dem Vergrößerungsfaktor M des Mikroskops (Abb. 8)
Solange im Gesichtsfeld nur einziges punktförmiges Objekt leuchtet (Abb. 8 oben),
kann seine Lage im Bild eindeutig festgestellt werden, sofern die Helligkeit des
leuchtenden Scheibchens groß genug ist. Dazu braucht man nur die Position seines
Gipfels zu bestimmen; aus dieser Position kann man dann Lage des punktförmigen
Objekts in der Biostruktur berechnen. Rayleigh selbst hat bereits im Jahre 1895
darauf hingewiesen.
12
13. Abb. 8. Grenzen der Auflösung in der konventionellen Fluoreszenzmikroskopie.
Oben: Das von einem ‚punktförmigen’ Objekt (z.B. Molekül) erzeugte Beugungsbild (x,y
Koordinaten der Bildebene, senkrechte Koordinate: Intensität (Farbkodiert, dunkel rot =
Intensität 1). Aus [9].
Normalerweise besteht ein Gegenstand aber aus sehr vielen einzelnen leuchtenden
‚Punkten’. Zum Beispiel können viele organische Moleküle durch chemische
Prozesse oder durch Lichtanregung zur Aussendung von ’Fluoreszenzphotonen’
angeregt werden. Solange der Abstand d zwischen den Objektpunkten so groß ist,
dass die von ihnen gebildeten Beugungsscheibchen sich nicht überlappen (Abb. 8
oben), solange kann die Lage jedes Beugungsscheibchens und damit die Lage der
zugehörigen Moleküle im Gegenstand getrennt von den anderen bestimmt werden:
Alle Objektpunkte zusammen ergeben ein maximal aufgelöstes Bild des
Gegenstandes, d.h. die Information über die räumlichen Beziehungen der
Objektpunkte zueinander.
Was geschieht aber, wenn die Objektpunkte einander so nahe kommen, dass die
vom abbildenden Mikroskopsystem gebildeten Beugungsscheibchen einander zu
überlagern beginnen ? Rayleigh argumentierte, dass zwei solche selbstleuchtenden
Objektpunkte nur dann noch voneinander unterschieden und damit ihre Positionen
bestimmt werden können, wenn die Maxima (Gipfel) der beiden
Beugungsscheibchen noch getrennt voneinander bestimmt werden können. Aus
geometrischen Gründen (zwischen den beiden ‚Gipfeln’ muss eine Senke vorhanden
sein) ist dies dann gegeben, wenn das Maximum des zweiten
Beugungsscheibchens in das Minimum des ersten fällt (Abb. 8 unten). Daraus ergibt
sich eine kleinste noch trennbare („auflösbare“) Distanz von ca. einer halben
Wellenlänge, also etwa dem Durchmesser eines einzelnen Beugungsscheibchens.
13
14. Da die Größe der Beugungsscheibchen aber nicht wesentlich kleiner gemacht
werden kann als etwa eine halbe Wellenlänge, also ca. 0,2 µm, erschien die
hierdurch gegebene Grenze der optischen Auflösung mit sichtbarem Licht aus den
Grundeigenschaften des Lichts zu folgen und damit unüberwindbar.
Alle diese Überlegungen beruhen auf der Annahme, dass sich die beiden
Beugungsscheibchen überlagern. In der konventionellen Lichtmikroskopie tun sie
das auch. Was aber wäre, wenn es irgendwie gelänge, die Positionen von jedem
Beugungsscheibchen unabhängig vom anderen zu messen ?
In der Lokalisationsmikroskopie/SPDM kann dieses Problem auf verschiedene Weise
gelöst werden.
Abb. 9: Prinzip der Lokalisationsmikroskopie.
a) Drei im Abstand von jeweils 50 nm liegende ‚punktförmige’ Objekte derselben
spektralen Signatur (z.B. derselben Farbe); b) Das von ihnen erzeugte Beugungsbild;
c) Intensitätsverteilung durch das Zentrum von b); d) Drei im Abstand von jeweils 50
nm liegende Objekte mit verschiedenen spektralen Signaturen B, G, R (z.B. Blau,
Gelb, Rot); e) optisch isolierte Beugungsbilder von B,G,R; g) Intensitätsverteilung
durch das Zentrum der einzelnen optisch isolierten Beugungsbilder von B, G, R.
Nähere Erläuterung im Text. Aus [9, 17], nach [6].
Die Abb. 9 zeigt schematisch das Prinzip der Lokalisationsmikroskopie. Man stelle
sich zunächst drei ‚punktförmige’, mit derselben spektralen Signatur
selbstleuchtende Punkte (z.B. Moleküle mit derselben Fluoreszenzfarbe) vor, die
voneinander einen Abstand von nur 50 Nanometer (0,050 µm) haben, also viermal
kleiner als die konventionelle Grenze der optischen Auflösung von ca. 200
14
15. Nanometer = 0,2 µm (oben links, a). Von jedem dieser Moleküle wird aufgrund der
Wellennatur des Lichts durch die Mikroskopoptik (bei gleichmäßiger Beleuchtung des
Objekts) ein Beugungsscheibchen mit einem Durchmesser von etwa 200 nm x M (M
Vergrößerungsfaktor) erzeugt; bei derselben spektralen Signatur überlagern diese
sich in der Bildebene (oben Zentrum, b). Ein Intensitätsquerschnitt durch die Mitte
dieses ‚Beugungsbildes’ (oben rechts, c, nach Division durch M) gibt eine
Helligkeitskurve, die sich aus der Überlagerung der drei von den drei Molekülen
gebildeten einzelnen Beugungsscheibchen ergibt; diese ist fast identisch mit der
durch ein einziges Molekül erzeugten. Es ist also hier nicht mehr möglich
festzustellen, wo die drei Moleküle im Bildfeld genau lokalisiert sind, und welchen
Abstand sie voneinander haben.
Hat jedes der eng benachbarten Moleküle jedoch eine verschiedene „spektrale
Signatur“ B,G,R – sie leuchten z.B. mit verschiedenen Farben Blau, Gelb, Rot - (b),
so wird eine Orts- und Abstandsbestimmung der einzelnen Moleküle möglich: In (e)
oben ist das Beugungsscheibchen gezeigt, das durch das in (d) links gelegene
Molekül mit der spektralen Signatur B entsteht; dabei wurde angenommen, dass die
Emissionen der beiden Moleküle mit Markierung G,R nicht zu dem
Beugungsscheibchen von B beitragen, für den in diesem Falle verwendeten Detektor
also „dunkel“ sind. Es ist offensichtlich, dass sich der Mittelpunkt dieser
Beugungsverteilung mit einem Lokalisierungsfehler bestimmen lässt, der wesentlich
kleiner ist als der Durchmesser der Beugungsverteilung. Diese Überlegungen lassen
sich nun für die „optisch isolierten“ Beugungsbilder der beiden anderen Moleküle mit
den spektralen Signaturen G und R wiederholen: In (e) Mitte wird das von G
erzeugte Beugungsscheibchen gezeigt; in diesem Falle wurde angenommen, dass
es „optisch isoliert“ von B und R abgebildet wurde. In (e) Unten wird das von R
erzeugte Beugungsscheibchen gezeigt; in diesem Falle wurde angenommen, dass
es „optisch isoliert“ von den beiden anderen (B und G) registriert wurde. Da nun die
Einzelpositionen der drei Objekte B,G,R (z.B. drei Moleküle mit den spektralen
Signaturen B,G,R) in der Objektebene auf einfache Weise berechnet werden können
(Division durch den Vergrößerungsfaktor M des Mikroskopsystems), lassen sich
daraus z.B. die Lagekoordinaten/Abstände in der Objektebene nach dem Pythagoras
berechnen, selbst wenn diese erheblich kleiner sind als die konventionelle
Auflösungsgrenze der Lichtmikroskopie. Dies aber bedeutet, dass mit diesem
Verfahren Objekteinzelheiten ‚aufgelöst’ (d.h. voneinander unterschieden) werden
können, die wesentlich kleiner sind als die konventionelle Grenze der lichtoptischen
Auflösung. Da dieses lokalisationsmikroskopische Verfahren auf
Präzisionsdistanzmessungen von Objekten geeigneter spektraler Signatur beruht,
wurde es von uns als Spektrale Präzisions Distanz Mikroskopie(SPDM) bezeichnet
[6].
In den obigen Überlegungen zur Überwindung der konventionellen Auflösungsgrenze
wurde unter dem Begriff ‚spektrale Signatur’ jede Objekteigenschaft verstanden, die
es erlaubt, die für die Lokalisationsmikroskopie erforderliche optische Isolation der
Beugungsscheibchen durchzuführen. Dies kann zum Beispiel mithilfe von
verschiedenen Fluoreszenzemissionsspektren (‚Spektralfarben’) realisiert werden. In
einer Zusammenarbeit mit dem Chaim Sheba Medical Center/Israel konnten wir
bereits vor mehr als zehn Jahren die grundsätzliche experimentelle Realisierbarkeit
und biomedizinische Anwendbarkeit der Lokalisationsmikroskopiemethode/SPDM
zeigen [7]. Distanzen in Zellkernen von Leukämiepatienten konnten bis zu einem
Abstand von ca. 30 nm, also ~ 1/16 der verwendeten Anregungswellenlänge
15
16. vermessen werden. Die optische Auflösung war somit um den Faktor 200/30 ~ 7
besser, als dies selbst mit den besten Mikroskopen von Abbe und Koch möglich
gewesen wäre.
Mit dem hier beschriebenen SPDM Verfahren können im Prinzip molekular
aufgelöste Abbildungen von Nanostrukturen gewonnen werden, sofern die
wesentliche Grundbedingung, die ’optische Isolation’, erfüllt werden kann: Dies
bedeutet, dass der Abstand zwischen zwei Molekülen derselben spektralen Signatur
mindestens so groß sein muss wie der Durchmesser D des Beugungsscheibchens
dividiert durch den Vergrößerungsfaktor M des Mikroskopsystems.
Allerdings ist die Anzahl der in einem Beugungsscheibchen befindlichen Moleküle,
die aufgrund von Farbunterschieden im Fluoreszenzemissionsspektrum gleichzeitig
getrennt von einander detektiert werden können, relativ gering (derzeit < 10). Eine
große Anzahl von spektralen Signaturen ist jedoch in vielen Fällen erforderlich, um
genaue Informationen über die Gestalt von Biostrukturen, z.B. in Bakterien, oder von
Viren zu erhalten. Über die bisher genannten spektralen Signaturen („Farben“)
hinaus gibt es jedoch noch weitere Möglichkeiten, auch eng benachbarte Moleküle
voneinander lichtoptisch zu unterscheiden.
Dieses zunächst unüberwindlich scheinende Problem konnte in den letzten Jahren
gelöst werden; nun ist es möglich, in einer einzigen Zelle bis zu vielen tausend
spektralen Signaturen für die Lokalisationsmikroskopie nutzbar zu machen.
Die Grundidee solcher Ansätze ist es, die zeitliche Dimension konsequent
auszunutzen:
Beispielsweise könnte man die Beugungsscheibchen von ganz eng zusammen
liegenden, nur in einer einzigen Farbe leuchtenden Moleküle auch dann
voneinander trennen, wenn diese Moleküle ihre Leuchtkraft zeitlich verändern
würden, wie das bei Leuchttürmen geschieht, oder in der Astronomie bei Supernova-
Ausbrüchen. Diese unterscheiden sich nicht nur in der Farbe ihrer Lichtemission;
sondern sie können während einer bestimmten Zeitspanne leuchten, also sich in
einem Hell-Zustand befinden; außerhalb dieser Zeiten leuchten sie nicht, sie sind in
einem Dunkel-Zustand. Nicht nur Farben können also als eine spektrale Signatur
herangezogen werden, sondern auch Hell-Zustände und Dunkelzustände. Aus
solchen Hell-und Dunkelzuständen verschiedener Farbstoffmolekülen kann dann ein
hochaufgelöstes Bild aufgebaut werden, gemäß einer schon vor 200 Jahren von
einem Jenaer Naturforscher ausgesprochenen Leitidee:
„Nunmehr behaupten wir, wenn es auch einigermaßen sonderbar klingen mag, daß
das Auge keine Form sehe, indem Hell, Dunkel und Farbe zusammen allein
dasjenige ausmachen, was den Gegenstand vom Gegenstand, die Teile des
Gegenstandes voneinander fürs Auge unterscheidet. Und so erbauen wir aus diesen
dreien die sichtbare Welt.“ (J.W. Goethe, Entwurf einer Farbenlehre, 1808).
Bei der Anwendung dieser Idee in der heutigen Lokalisationsmikroskopie muss man
dafür sorgen, dass der Abstand von zwei Molekülen einer bestimmten Farbe im Hell-
Zustand so groß ist, dass sich die beiden Beugungsscheibchen derselben Farbe
während der Aufnahmezeit im Detektionssystem (z.B. einer CCD Kamera) nicht
überlappen. In den letzten Jahren wurden derartige auf dem SPDM Grundkonzept
der Lokalisationsmikroskopie beruhende Ideen von verschiedenen Gruppen (u.a. an
der Harvard University, der Universität Heidelberg, dem Howard Hughes Medical
Institute, der Maine University, dem Max-Planck-Institut Göttingen) experimentell
realisiert, wobei unterschiedliche Markierungs- und Aufnahmemethoden zum selben
16
17. Ziel führten [8-20]: Einer optischen Superauflösung, die um ein Vielfaches besser war
als die von Abbe und Rayleigh postulierten Grenzen.
Auf der Grundlage der langjährigen Erfahrungen in der Entwicklung
superauflösender lichtmikroskopischer Methoden konnten wir in unserer
Arbeitsgruppe am Heidelberger Kirchhoff-Institut für Physik zeigen, dass die oben
skizzierte Lokalisationsmikroskopie/SPDM auf der Grundlage der Induktion
einmaliger„Lichtblitze“ unter bestimmten ’photophysikalischen’ Bedingungen auch für
viele „ganz gewöhnliche“ Farbstoffmoleküle realisiert werden kann [15 – 20]. Solche
Moleküle verhalten sich also in Punkto Lichtemission analog zu ihren makrokosmisch
großen „Schwestern“, den Supernova-Sternen: Sie leuchten für kurze Zeit so stark
auf, dass ihre Position aufgrund des Lichtblitzes festgestellt und in eine
Positionskarte eingetragen werden kann. Dann endet diese Lichtaussendung
plötzlich, und sie verschwinden im Dunkeln. Tritt in ganz kleiner Entfernung von der
Position der ersten „Supernova“ ein weiterer Lichtblitz auf, so wird dessen Position
einer zweiten Supernova (in der Lokalisationsmikroskopie einem zweiten Molekül)
zugeschrieben. Abb. 10 zeigt eines der in unserer Arbeitsgruppe am Kirchhoff-Institut
für Physik auf der Grundlage des SPDM Konzepts gebauten „Nanoskope“. Der
Aufbau hat mit ’klassischen’ Mikroskopen wie dem in Abb. 2 gezeigten viele
Gemeinsamkeiten: Auch hier ist ein massives Stativ zur Erhöhung der mechanischen
Stabilität essentiell. Der durch das Okular blickende Beobachter ist hier jedoch durch
eine hochempfindliche CCD-Kamera ersetzt (ähnlich wie bei modernen
Fotoapparaten), mit der die Lichtblitze von einzelnen Molekülen detektiert werden
können; statt des Sonnenlichts dienen Laser zur Beleuchtung des Präparats. Hinzu
kommt ein weiteres, ganz wesentliches Element, leistungsstarke Computer zur
Speicherung und Auswertung der von der CCD-Kamera registrierten Bilder: Um eine
‚superaufgelöste’ Abbildung zu erhalten, werden typischerweise Informationen aus
mehreren tausend Einzelbildern benötigt.
Abb. 10: Ansicht eines der am Kirchhoff-Institut für Physik entwickelten
„Lokalisationsmikroskope“ [15 – 18] (Photo C.Cremer)
17
18. Derzeit wird in unserer Arbeitsgruppe am Heidelberger Kirchhoff-Institut mit SPDM
eine lichtoptische Auflösung (2D) zellulärer Nanostrukturen von etwa 10 – 20 nm
(0.010 – 0.020 µm) realisiert. Die Bestauflösung bei solchen zellulären Strukturen
entspricht etwa 1/50 der eingesetzten Laserwellenlänge, oder dem Durchmesser
eines einzelnen größeren Proteins, oder 1/1000 Durchmesser eines Zellkerns. Ein
Beispiel wird in Abb. 11 gezeigt: Während bei konventioneller
Fluoreszenzmikroskopie (optische Auflösung ~ 200 nm = 0,2 µm) sich eine eher
gleichmäßige „Färbung“ des Zellkerns ergab, wurden bei Verwendung von
Lokalisationsmikroskopie (SPDM) in diesem ‚optischen Schnitt’ rund 120.000
einzelne Proteine lokalisiert [18]. So gewonnene Molekülverteilungen können nun mit
Mitteln der theoretischen Polymerphysik quantitativ analysiert und mit numerischen
Modellvorstellungen verglichen werden [20]. In Abb.12links werden einzelne
Moleküle der Verpackung der DNA im Kern einer menschlichen Zelle sichtbar
gemacht. Einzelne Moleküle im Abstand von nur 17 nm (= 0.017 µm = 0.000 017
mm) sind noch deutlich voneinander getrennt. In Abb. 12rechts wurde dasselbe
Verfahren auf Moleküle der Zellmembran angewandt, mit ähnlichen Ergebnissen.
Gegenwärtig können wir derartige Bilder mit fast molekularer Auflösung von ganzen
Zellen in etwa einer Minute gewinnen, was auch erste SPDM -Aufnahmen von
lebenden Zellen erlaubt hat. Kameras mit höherer Aufnahmefrequenz sollten eine
Reduktion der für mehrere tausend Einzelbilder benötigten Gesamtaufnahmezeiten
auf wenige Sekunden ermöglichen; neue, derzeit mit Kollegen aus der Informatik in
Entwicklung befindliche Computerprogramme werden die Auswertungszeit bis zum
fertigen Nanoskopie-Bild auf ähnlich kurze Zeiten reduzieren. Durch Kombination
von SPDM mit einem weiteren in unserer Arbeitsgruppe entwickelten
Nanoskopieverfahren, der Spatially Modulated Illumination (SMI) Mikroskopie ist es
uns kürzlich gelungen, eine dreidimensionale (3D) Auflösung zellulärer
Nanostrukturen von ca. 40 – 50 Nanometer zu verwirklichen [16].
18
19. Abb 11. Lokalisationsmikroskopie (SPDM) des Kerns einer Knochenmarks-Krebszelle.
Links: Bei konventioneller hochauflösender Fluoreszenzmikroskopie ist es nicht möglich,
Einzelheiten der Verteilung der beiden fluoreszenzmarkierten Molekültypen zu erkennen.
Rechts: Mit SPDM im Zweifarbenmodus konnten in dem gezeigten “optischen Schnitt”
(Kernschicht von ca. 600 nm Dicke) etwa 70,000 einzelne ‚Histon’moleküle (rot) und etwa
50,000 individuelle Proteine zur Regulation der Genomstruktur (grün) in einem Gesichtsfeld
von ca. 470 µm2 lokalisiert werden. Aus [18].
Abb.12. Links: Lokalisationsmikroskopie (SPDM) von individuellen Histonmolekülen in einem
menschlichen Zellkern (Detail). Rechts: SPDM von individuellen Proteinmolekülen in einer
menschlichen Zellmembran (Detail). Die für die Anregung verwendete Wellenlänge war 488
nm. Einzelne Moleküle mit demselben Absorptions/Emissionsspektrum (’Farbe’) konnten
auch in einem Abstand um die 10 nm noch klar voneinander getrennt werden. Dabei wurden
Standardfluoreszenmarker (Farbstoffe) verwendet. Aus [16,17].
In einer Zusammenarbeit mit Prof. V. Sourjik (Zentrum für Molekularbiologie der
Universität Heidelberg/ZMBH) haben wir begonnen, Nanostrukturen von Bakterien
zu untersuchen (Abb. 13). Im Gegensatz zur Elektronenmikroskopie ist das sogar in
lebenden Zellen möglich. Unser gegenwärtiger Bestwert bei der
lokalisationsmikroskopischen Analyse von Biostrukturen liegt bei etwa 5 nm,
entsprechend etwa 1/100 der verwendeten Wellenlänge. Verglichen mit der
„konventionellen“ Auflösungsgrenze ist das eine Verbesserung um einen Faktor 40.
19
20. Abb. 13. Oben: Lichtmikroskopisches Bild eines Bakterium bei der ‚konventionellen’
Bestauflösung; Unten: Lokalisationsmikroskopie (SPDM) der Verteilung von einzelnen
Molekülen eines bestimmten Typs dem oben abgebildeten Bakterium. Aus [2]
Nanoskope und Mikroben
Für unser Thema „Mikroskope und Mikroben“ bedeuten die neuen Entwicklungen
der superauflösenden Mikroskopie (Nanoskopie), dass nunmehr die Wechselwirkung
von Bakterien und Viren mit einzelnen Zellen auf der makromolekularen Ebene auch
mit sichtbarem Licht beobachtet werden kann. So untersuchen wir derzeit in
Zusammenarbeit mit verschiedenen virologischen Instituten zelluläre Nanostrukturen,
die sich durch Infektion mit verschiedenen Viren ergeben. In einem dieser Projekte
geht es um die Wechselwirkung von Influenza-Viren (verantwortlich für verschiedene
Formen von Grippe-Infektionen) und der Zellmembran: Die Anheftung von Viren an
die Zellmembran ist eine Voraussetzung für ihr Eindringen in die Zelle; ein besseres
Verständnis solcher Anheftungsprozesse kann zur Entwicklung wirksamerer
Arzneimittel beitragen. Bislang werden solche Anheftungsvorgänge hauptsächlich mit
elektronenmikroskopischen Methoden untersucht. Diese sind in punkto Auflösung
(also Erkennung von Struktureinzelheiten) selbst der hier dargestellten
Lokalisationsmikroskopie immer noch überlegen (wenn auch zur Zeit nur noch um
einen Faktor 2 - 3 und nicht mehr um einen Faktor 100). Es ist jedoch sehr schwierig,
in so hoch aufgelösten Elektronenmikroskopischen Bildern Viren zu finden, die sich
gerade an die Zellmembran anheften, also gewissermaßen den Virus „in flagranti“ zu
erwischen. Bei der Lokalisationsmikroskopie ist das sehr viel einfacher. Eine solche
Inspektion kann im Prinzip in wenigen Minuten durchgeführt werden. Wenn man
einigermaßen sicher sein darf, Viren im Moment der Anheftung identifiziert zu haben,
dann lohnt es sich viel mehr, auf diese Stelle die mühseligen Prozeduren der
höchstauflösenden Elektronenmikroskopie anzuwenden.
In einem anderen Projekt geht es darum, die Auswirkungen einer Vireninfektion auf
die Genexpression zu untersuchen, also die vireninduzierte Bildung von bestimmten
Proteinarten. Das ist zum Beispiel von Interesse in der Immunologie.
Aber ist es möglich, mit den oben beschriebenen superauflösenden
Lichtmikroskopieverfahren einzelne Viren direkt „scharf“ abzubilden? Zu Zeiten
Robert Koch’s war es unmöglich, diese winzig kleinen Feinde der Menschheit ins
Visier zu bekommen. Man musste sich mit indirekten Indizien zufrieden geben, bis
die seit den 1930iger Jahren entwickelte Elektronenmikroskopie diese Lücke schloss;
20
21. mit diesen Methoden konnte man einzelne Viren selbst dann noch scharf darstellen,
wenn sie nur einen Durchmesser von 20 nm (0.020 µm = 0.000 020 mm) hatten. Mit
Lichtmikroskopie unter Verwendung von sichtbarem Licht so etwas zu erreichen,
schien angesichts der vielfach schlechteren optischen Auflösung von 200 nm
aussichtslos. Wenn solche Viren geeignet gefärbt vereinzelt auf einen Objektträger
gebracht werden konnten, dann konnte man unscharfe Schemen wahrnehmen, aber
nichts Genaues.
In einer Zusammenarbeit mit dem Institut für Biologie der Universität Stuttgart haben
wir begonnen, die Lokalisationsmikroskopie/SPDM auf die Strukturanalyse von
Tabakmosaik-Viren anzuwenden. Tabakmosaik-Viren sind zylinderförmige
Pflanzenviren mit einer typischen Länge von 300 nm und einem Durchmesser von 18
nm (0.018 µm) und einer Proteinhülle um die Nukleinsäure des Virus. Zum einen
sind sie für die Erforschung von Virusverursachten Pflanzenkrankheiten interessant;
ein signifikanter Teil der Welternte geht auf ihr Konto. Zum anderen werden solche
für den Menschen unschädlichen Pflanzenviren aufgrund ihrer leichten
Gewinnbarkeit, perfekten Symmetrie und einheitlichen Gestalt als vielversprechende
elementare Bausteine für verschiedene Anwendungen in der Nanotechnologie
angesehen, zum Beispiel für die Herstellung von Batterien, oder für verbesserte
Sensoren. Solche Anwendungen setzen jedoch eine präzise Kontrolle der Verteilung
der Viren auf den benutzten Oberflächen voraus. Mit elektronenmikroskopischen
Verfahren ist dies zwar möglich, aber sehr aufwändig.
Abb. 14links zeigt solche auf einer Oberfläche aufgebrachte Tabakmosaikviren nach
Färbung der Hüllproteine mit einem fluoreszierenden Farbstoff bei bestmöglicher
konventioneller Auflösung (200 nm = 0,2 µm). Eine Reihe von „Flecken“ sind
sichtbar, aber genauere Strukturen sind nicht erkennbar, eine Identifizierung ist nicht
möglich. Die Anwendung der Lokalisationsmikroskopie auf dieselbe Stelle des
Präparats (Abb. 14rechts) zeigt hingegen deutlich einzelne stäbchenförmige Objekte.
Wie die genauere Analyse zeigte (Manuskript in Vorbereitung), stimmen die
lokalisationsmikroskopisch ermittelten Strukturdaten fast haargenau mit denjenigen
der Elektronenmikroskopie überein, mit einer Abweichung von ca. 2 nm (0.002 µm).
Abb. 14. Lokalisationsmikroskopie von Viren (Tabakmosaikviren)
21
22. Links: Konventionelle lichtmikroskopische Bestauflösung. Rechts: Lokalisationsmikroskopie.
Die einzelnen‚’Pünktchen’ geben den Ort einzelner Virusmoleküle an.
S. Pres, M. Gunkel, R. Kaufmann, F, Geiger, S. Degenhard, C. Wege, C. Cremer, Super-
resolution imaging of viruses by Spectral Precision Distance Microscopy (SPDM), Manuskript
in Vorbereitung.
Perspektiven
Das Anwendungsspektrum der oben skizzierten superauflösenden
Lokalisationsmikroskopie-Verfahren reicht derzeit von menschlichen und tierischen
Zellen (Zellkern, Zytoplasma, Zellmembran, Zell-Zell-Interaktionen) und
Pflanzenzellen bis zur superaufgelösten Abbildung einzelner Bakterien und Viren,
also Objekten, deren Struktur bis vor kurzem nur der Elektronenmikroskopie
zugänglich war. Einige bereits begonnene Anwendungen in der Mikrobiologie wurden
oben erwähnt.
Im Folgenden sollen einige weitere – derzeit noch spekulative, aber von der
optischen Seite erstmals realisierbare - Möglichkeiten dieser und verwandter
Methoden der lichtoptischen Nanoskopie in der Analyse von Bakterien und Viren
genannt werden.
Bakterien: Nanoskopietechniken mit molekularer Auflösung erlauben es, die
Verteilung einzelner spezifischer Molekültypen in einzelnen Bakterien zu analysieren.
Da solche Verteilungen vom Bakterientyp abhängen, sollte es möglich sein,
Nanoskopietechniken für eine schnelle Diagnostik der in irgendeiner kleinen Probe
befindlichen Bakterienstämme zu entwickeln, selbst wenn eine solche Probe (z.B. ein
Abdruck von einer Oberfläche von der Größe einer Nadelspitze) eine Vielzahl von
Bakterientypen enthält. Bei geeigneten Präparationsverfahren verbunden mit der
Entwicklung schneller Computerprogramme für die Auswertung könnte die
Diagnostik von der Probenentnahme bis zur Identifizierung in wenigen Minuten
abgeschlossen werden. Mikroskopiegestützte Ansätze zu einer solchen Diagnostik
gibt es heute schon, aber lokalisationsmikroskopische Nanoskopieverfahren würden
wegen ihrer molekularen Auflösung diese Möglichkeiten stark erweitern können. Eine
der vielen Anwendungsgebiete einer solchen raschen Diagnostik bieten sich beim
Aufspüren von multiresistenten Keimen im Krankenhaus an. Das Anlegen von
Bakterienkulturen, die Wartezeit auf die Ergebnisse würde entfallen, die damit
verbundene antibakterielle Therapie könnte sofort begonnen werden.
Ein weiteres potentielles Anwendungsbeispiel sind die Proteinfabriken der Bakterien,
die Ribosomen; das sind ‚Biomolekulare Maschinen’ [21], auf deren Störung die
Wirkung vieler Antibiotika beruht. Nanoskopietechniken könnten dazu beitragen, die
Wirkung solcher Antibiotika auf ihre Zielstrukturen auf der Ebene einzelner Bakterien
zu verfolgen. Zum Beispiel könnten Antibiotikabedingte Änderungen der gebildeten
Protein-„Stückzahlen“ direkt mit einer bislang nicht möglichen Präzision gemessen
werden; oder es könnten sogar Antibiotikabedingte Strukturänderungen in den
Bakterienribosomen (und zum Vergleich in den Ribosomen der menschlichen
Wirtszellen) nanoskopisch bestimmt werden. Hierfür würde eine Auflösung im
Bereich von 1 nm (0.001 µm) benötigt. Lokalisationsmikroskopische Verfahren, die
dies ermöglichen, sind gegenwärtig in Entwicklung. Bereits jetzt aber konnten wir mit
einer anderen in unserer Arbeitsgruppe etablierten superauflösenden
Lichtmikroskopiemethode, der sog. Strukturierten Beleuchtung, den Durchmesser
22
23. von Biomolekularen Maschinen der DNA Verdopplung („Replikation“) mit einem
statistischen Fehler von 1 nm bestimmen, und so die durch die Anlagerung einzelner
Moleküle induzierten Größenänderungen (wenige Nanometer) messen.
Nanoskopietechniken könnten auch wichtige Informationen über die räumliche
Faltung der in einem langen DNA Strang kodierten Erbinformation des Bakteriums
und seiner Beeinflussung durch Umwelteinflüsse erlauben. Dies wäre nicht nur
theoretisch für die „Fundamental Biophysics“ von Interesse: Gelänge es, auf der
Basis solcher Strukturinformationen z.B. die für die Vermehrung der Bakterien
notwendige Verdopplung ihres Genoms zu stören, dann könnte dies zur Entwicklung
verbesserter Antibiotika führen, die das Wachstum der Bakterien auf der Ebene ihrer
DNA Faltung behindern..
Viren: Vielfältige Anwendungsperspektiven nanoskopischer Methoden ergeben sich
auch bei Viren. Sie könnten die bestehenden molekularbiologischen und
elektronenmikroskopischen Methoden wirksam ergänzen, z.B. bei der Analyse der
Bildung viraler Strukturen, der Aufnahme und des Transports von Viren in der Zelle,
oder der Integration bestimmter Viren in die Erbsubstanz der Wirtszelle und deren
Folgen für die Nanostruktur des Genoms. Dies wiederum könnte in Verbindung mit
dem übrigen Methodenspektrum der Virologie, ergänzt auch durch die neuen viel
versprechenden Möglichkeiten der theoretischen Biophysik und Computersimulation
solcher Vorgänge, hilfreich sein bei der Entwicklung antiviraler Arzneimittel. In einer
der ersten Tagungen des Jubiläumsjahres 625 der Universität Heidelberg im
November 2010 wurden solche Perspektiven thematisiert [21].
Danksagung
Bei der Entwicklung der oben skizzierten laseroptischen Entwicklungen am Kirchhoff-
Institut für Physik haben zahlreiche Diplomanden, Doktoranden, wissenschaftliche
Mitarbeiter, sowie weitere Kooperationspartner mitgewirkt, denen hier sehr herzlich
gedankt sei (siehe www.kip.uni-heidelberg.de). Insbesondere danke ich Herrn Dr.
Paul Lemmer (Abb. 6,12,13); Dipl.-Phys. Rainer Kaufmann (Abb. 8,9,12); Dipl.-Phys.
Manuel Gunkel (Abb. 11,14) und cand.phys. Sebastian Pres (Abb. 14), sowie Herrn
Prof. V. Sourjik (Abb. 13) und Frau Priv.-Doz. Dr. Cristina Wege (Abb. 14). Die
Forschungen wurden unterstützt vom Land Baden-Württemberg, der DFG, dem
BMBF und der EU.
Literatur:
[1] Cremer, T. (1985) Von der Zellenlehre zur Chromosomentheorie. Springer Verlag,
Heidelberg New York.
[2] Lemmer, P. (2009) Lichtmikroskopische Untersuchungen konventionell markierter
Präparate weit unterhalb der Beugungsgrenze. Dissertation Fakultät für Physik, Heidelberg.
[3] Abbe E. (1873): Beiträge zur Theorie des Mikroskops und ihrer mikroskopischen
Wahrnehmung. Archiv f. mikroskopische Anatomie 9: 411 – 468.
23
24. [4] Rayleigh, L. (1896) On the theory of optical images, with special reference to the
microscope. Philosophical Magazine 42. 167-195
[5] Bornfleth H et al. (1998) High precision distance measurements and volume-conserving
segmentation of objects near and below the resolution limit in three-dimensional confocal
fluorescence microscopy. J. Microscopy 189: 118-136.
[6] Cremer C et al.(1999) Principles of Spectral Precision Distance confocal microscopy for
the analysis of molecular nuclear structure. In: Handbook of Computer Vision and
Applications (ed. B. Jähne, H. Haußecker, P. Geißler), Ch. 41., Vol. 3, Academic Press San
Diego, New York: 839-857.
[7] Esa A et al. (2000) Three-dimensional spectral precision distance microscopy of
chromatin nanostructures after triple-colour DNA labelling: a study of the BCR region on
chromosome 22 and the Philadelphia chromosome. Journal of Microscopy 199:96–105.
[8] Heilemann M et al. (2002) High-resolution colocalization of single dye molecules by
fluorescence lifetime imaging microscopy. Anal. Chem 74:3511–3517.
[9] Cremer C. (2011) Lokalisationsmikroskopie - Lichtmikroskopie unterhalb des Abbe-
Limits. Physik in Unserer Zeit 42: 21 – 29.
[10] Lidke KA et al. (2005) Superresolution by localization of quantum dots using blinking
statistics. Opt. Express 13: 7052–7062.
[11] Betzig E. et al. (2006): Imaging Intracellular Fluorescent Proteins at Nanometer
Resolution. Science 313:1642–1645.
[12] Hess S et al. (2006) Ultra-High Resolution Imaging by Fluorescence Photoactivation
Localization Microscopy. Biophysical Journal 91:4258.
[13] Egner, A et al. (2007) Fluorescence nanoscopy in whole cells by asynchronous
localization of photoswitching emitters. Biophysical Journal 93:3285.
[14] Rust M et al. (2006) Sub-diffraction-limit imaging by stochastic optical reconstruction
microscopy (STORM).Nature Methods 3: 793–795.
[15] Reymann J et al. (2008):High-precision structural analysis of subnuclear complexes in
fixed and live cells via spatially modulated illumination (SMI) microscopy. Chromosome
Research 16:367–382.
[16] Lemmer P et al. (2008) SPDM – Light Microscopy with Single Molecule Resolution at
the Nanoscale. Applied Physics B 93: 1-12.
[17] Kaufmann R et al. (2009) SPDM – Single Molecule Superresolution of Cellular
Nanostructures. Proc. SPIE 7185 :71850J-1 – 71850J-19.
[18] Gunkel M et al. (2009) Dual color localization microscopy of cellular nanostructures.
Biotechnology J. 4: 927 – 938.
[19] Cremer C. et al. (2010) Far field fluorescence microscopy of cellular structures @
molecular resolution, In: Nanoscopy and Multidimensional Optical Fluorescence Microscopy
(A. Diaspro, Edit.), Taylor & Francis.
[20] Bohn, M. et al (2010) Localization microscopy reveals expression dependent parameters
of chromatin nanostructure. Biophys. J. 99: 1358 – 1367.
[21] Structure, Dynamics and Modulation: 3rd International Conference on Viral Membrane
Proteins, Nov. 5-7,2010, Heidelberg.
24
25. Korrespondenzadresse:
Prof. Dr. Christoph Cremer
Kirchhoff-Institut für Physik
Universität Heidelberg
Im Neuenheimer Feld 227
D-69120 Heidelberg
e-mail: cremer@kip.uni-heidelberg.de; cremer@bmm.uni-heidelberg.de
25