Forum: Netzwelt
Physikalische Grenze der Chip-Entwicklung: Kleiner geht's nicht
AFP

Fünfzig Jahre lang wurden Computerchips stetig kleiner, günstiger und leistungsfähiger. Doch jetzt naht das Ende dieses "Mooreschen Gesetzes". Stockt die digitale Revolution, weil das Schrumpfen ein Ende hat?

Seite 1 von 26
Untertan 2.0 26.03.2016, 12:06
1. Ausgereift

Nun ja, jede Technik ist irgendwann ausgereift. Innovationen wird es noch geben, aber eben nicht mehr im selben, atemberaubenden Tempo. Die Rechenlaistung der meisten Computer ist heutzutage sowieso überdimensioniert...

Beitrag melden Antworten / Zitieren
behr22 26.03.2016, 12:06
2.

CPU stoßen vielleicht aktuell an Grenzen, dafür gibt es aber noch eine große Dynamik bei GPUs. Bei vielen Problemen kann man einem Speedup von 150-200 mit GPUs erreichen und die nächste Generation wird die Leistung wahrscheinlich nochmal um den Fakor 2x steigern

Beitrag melden Antworten / Zitieren
palart 26.03.2016, 12:09
3. Nur keine Panik

Aber bitte, nur keine Panik. Die meisten Rechner haben schon seit einigen Jahren mehr als genug Leistung im Alltagsgebrauch. Nun findet eine Konsolidierung statt und Mehrfachprozessoren helfen, wenn jemand wirklich noch mehr Leistung will. Deshalb werden nicht weniger Geräte verkauft.

Beitrag melden Antworten / Zitieren
mikechumberlain 26.03.2016, 12:10
4.

"Colossus gilt als erster programmierbarer elektronischer Digitalcomputer. Er wurde 1943...."

Hallo Spon wo habt Ihr den Artikel abgekupfert? Bestimmt von der englischen oder amerikanischen Presse, die beanspruchen ja immer die Ersten gewesen zu sein.
Schade das Ihr da so ungehemtt mitmacht.

Um die Geschichte mal für Eure jungen Leser zurechtzurücken:

Die Z3 war der erste funktionsfähige Digitalrechner weltweit und wurde 1941 von dem deutschen Konrad Zuse in Berlin gebaut.

Beitrag melden Antworten / Zitieren
mimas101 26.03.2016, 12:11
5. Hmm Tja

und das Ende vom Lied ist mittlerweile das die neuen Nano-Mikro-Meter Chips derart empfindlich sind das die NASA für Weltraumgeräte händeringend nach uralten ICs sucht die nur ein paar tausend Transistoren auf den Chips haben.

Beitrag melden Antworten / Zitieren
twister13 26.03.2016, 12:12
6. ZU schnell

Zitat von Untertan 2.0
Nun ja, jede Technik ist irgendwann ausgereift. Innovationen wird es noch geben, aber eben nicht mehr im selben, atemberaubenden Tempo. Die Rechenlaistung der meisten Computer ist heutzutage sowieso überdimensioniert...
Was genau verstehen Sie denn bitte unter "überdimensioniert"?

Rechnet Ihnen Ihr iPhone zu schnell? Oder bläst sich der Airbag zu schnell auf?

Sehen Sie auf dem LED Fernseher keine Bewegungsstreifen mehr? Was genau ist denn bitte zu schnell??

Beitrag melden Antworten / Zitieren
patta8388 26.03.2016, 12:25
7.

Das ganze war schon vor knapp 10 Jahren zu erahnen, auch als Laie. Damals stoppte die vorher rasant stattfindende Steigerung der Prozessor-Geschwindigkeit - auch heute noch arbeiten selbst die Flaggschiffe der Hersteller "nur" mit 3-4 GhZ. Ab da ging es nur noch um den Feinschliff.

Beitrag melden Antworten / Zitieren
fenris1959 26.03.2016, 12:26
8. Conrad Zuse sein Z3 war der erste Computer!

Auch wenn es nicht in die manchmal ideologisch eingeschränkte Sicht vom Spiegel passt - und vor lauter Begeisterung der Name 'Colossus' in der Bilderklärung gleich mit drei 's' geschrieben wird - dennoch kommt der erste Computer aus Deutschland ;-)

Beitrag melden Antworten / Zitieren
5Minute 26.03.2016, 12:30
9.

Zitat von behr22
CPU stoßen vielleicht aktuell an Grenzen, dafür gibt es aber noch eine große Dynamik bei GPUs. Bei vielen Problemen kann man einem Speedup von 150-200 mit GPUs erreichen und die nächste Generation wird die Leistung wahrscheinlich nochmal um den Fakor 2x steigern
Diese Logik erschliesst sich mir nicht.
Wo sehen Sie den Unterschied zwischen CPU und GPU in der Fertigung?

Beitrag melden Antworten / Zitieren
Seite 1 von 26