Archiv für den Autor: anja

Facebook und der Like-Button

facebook1-1

Facebook ist eines der größten sozialen Netzwerke. Das Unternehmen Facebook Inc. hat seinen Sitz in Kalifonien. Die derzeitige Mitgliederzahl beträgt 1,23 Milliarden. (vgl. http://de.wikipedia.org/wiki/Facebook)

Veröffentlich wurde das soziale Netzwerk am 04.02.2004 von Dustin Moskovitz, Chris Hughes, Eduardo Saverin und Mark Zuckerburg.

Seit dem Facebook veröffentlicht wurden ist, gibt es immer wieder Kritiken über den Datenschutz der User des sozialen Netzwerkes besonders von europäischen Datenschützern.

Das Prinzip des Netzwerkes ist es, sein eigenes Leben mit Freunden und Bekannten zu vernetzen. Dabei verfügt jeder Nutzer über eine eigene Profilseite, welche selbst mit Fotos und Kommentaren gestalltet werden kann. Auch private Nachrichten können verschickt werden. Freunde können in Gruppen und Veranstaltungen eingeladen und informiert werden.

Mit dem Like-Button kann der User kenntlich machen, was ihm gefällt. Dazu können auch Seiten von Unternehmen, Künstlern und verschiedenen Produkten gehören. Facebook bietet damit Unternehmen und Künstlern die Chance ihre eigene Profilseite aufzubauen und zu vermarkten.

Dieser Like-Button bzw. „Gefällt mir“ Button wird besonders stark kritisiert. Thilo Weichert, der oberste Datenschützer Schleswig-Holsteins, drohte 2011 Website-Betreibern mit einem Bußgeld von bis zu 50.000 Euro, wenn sie nicht die „Gefällt mir“-Buttons von ihren Seiten entfernen würden. „Die Daten der Webnutzer werden in die Vereinigten Staaten übermittelt und dort rechtswidrig zu Nutzerprofilen verarbeitet. Die Nutzer wissen nicht, was mit ihren Daten geschieht.“ (so Weichert: http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/der-facebook-boersengang/facebook-gefaellt-mir-gefaellt-nicht-11289881.html) Wird der Button erst einmal verwendet, kann durch die persönliche IP-Adresse eine Rückverfolgung der Datenübermittlung stattfinden.

Das Verwaltungsgericht Schleswig gab im Oktober 2013 den Klägern, gegen diese Drohung von Thilo Weichert,  Recht mit der Begründung, dass Unternehmen nicht für den Datenschutz bei Facebook verantwortlich sind.

Das Geschäftsmodel von Facebook ist die personalisierte Werbung, die häufig als Banner und Textanzeigen geschaltet wird.

Im Mai 2012 ging Facebook an die Börse. Derzeit kostet eine Aktie 48,65 EUR (Stand: 16.03.14).  Der Aktienkurs verlief nicht so positiv wie zu Beginn gedacht, trotzdem war es der erfolgreichste Börsengang aller Internet-Unternehmen im Jahr 2012. Eine weitere große Investition war im Februar 2014 der Kauf von WhatsApp für insgesamt 19 Milliarden US-Dollar (13,81 Milliarden Euro). WhatsApp ist eine App zum Verschicken von Nachrichten auf dem Smartphone.

Persönliche Darstellung/Meinung zum Thema Facebook

Da viele Nutzer von Facebook sehr jung sind, sollte schon in der Schule Aufklärungen zum Thema Facebook und Datenschutz stattfinden. Gerade im Bezug auf das zukünftige Leben der Schüler sollte die Darstellung der eigenen Person (durch Fotos und Kommentaren) auf Facebook diskutiert werden. Was Daten für eine Macht haben zeigt sich aktuell im Verkauf von Whatsapp an Facebook. Es ist nicht ersichtlich, was mit den persönlichen Daten der Nutzer nach dem Verkauf an Facebook passiert. Viele Nutzer von Whatapp verlassen aufgrund des Verkaufs Whatsapp und gehen stattdessen zu anderen Organisationen wie beispielsweise Threema. Ein weiteres Beispiel für die Macht des sozialen Netzwerkes sind die Hetzkampangen die manchmal gegen Stars oder Privatpersonen gerichtet werden. Es ist für die Betroffenen oft schwer gegen die Vorwürfe, die im sozialen Netzwerk ablaufen vorzugehen.

Wenn Daten erst einmal im Netz sind, ist es schwer sie wieder vollständig zu löschen. Aus diesem Grund empfinde ich es für wichtig, genau zu überlegen, was man von sich preisgibt und damit der Öffentlichkeit zur Verfügung stellt. Die Nutzungsrechte der Daten, wozu auch Fotos und Bilder gehören, werden durch die AGB´s an Facebook abgegeben.

Facebook. Geheimnisse und Gefahren: http://www.youtube.com/watch?v=lyR79vNDPgQ

Wie lange Facebook noch so populär bleibt wird sich noch zeigen.

 

Quellen zum Text:

http://de.wikipedia.org/wiki/Facebook; Stand: 16.03.14

http://de.wikipedia.org/wiki/Facebook_Inc.; Stand: 16.03.14

http://www.finanzen.net/aktien/facebook-Aktie; Stand: 16.03.14

http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/der-facebook-boersengang/facebook-gefaellt-mir-gefaellt-nicht-11289881.html; Stand: 16.03.14

http://www.ndr.de/ratgeber/netzwelt/facebook1055.html; Stand: 16.03.14

Big Data beginnt mit Small Data

Heutzutage werden immer mehr digitale Daten erzeugt. „Der Speicherspezialist EMC schätzt das im Jahr 2012 erzeugte Datenvolumen auf 2,8 Zettabyte. Die Experten prognostizieren, dass es bis 2020 sogar 40 Zettabyte sein werden. Diese Zahl entspreche der 57-fachen Anzahl der Sandkörner auf allen Stränden der Erde, rechnete EMC aus.“ (http://www.spiegel.de/netzwelt/web/das-internet-der-dinge-erzeugt-2-8-zettabyte-daten-a-872280.html)

Viele Firmen legen ihre Daten nur noch elektronisch an. Gerade im medizinischen und technischen Sektor erzeugen die Maschinen ständig Daten, die dann für weitere Zwecke genutzt werden können. Auch die Wissenschaft erzeugt große Datenmengen beispielsweise für die Klimaforschung.

BigData

Die Schwellenländer (wie beispielsweise Indien, China) tragen zu einer weiteren Vergrößerung der Datenmenge bei, da die Bevölkerung und damit die Kommunikation über das Internet ständig wachsen. „Ihr Anteil soll 2020 bereits 62 Prozent erreichen und damit die Datenproduktion in Europa und den USA in den Schatten stellen. Heute sind es 36 Prozent, darunter China mit einem Anteil von 13 Prozent und Indien mit vier Prozent. Auf die USA entfallen in diesem Jahr 32 Prozent der globalen Datenproduktion, auf Westeuropa 19 Prozent.“ (http://www.spiegel.de/netzwelt/web/das-internet-der-dinge-erzeugt-2-8-zettabyte-daten-a-872280.html)

 

 

Das Konzept Big Data besteht aus einer vernetzten Welt, in der schon zukünftige Entscheidung getroffen werden können, allein durch aktuelle Datenbankenauswertungen.

Beispielsweise können die schnellsten Taxirouten im Voraus berechnet werden, um schnell agieren zu können. Dafür ist eine große Datenbank notwendig die Baustellen, Verkehrsbehinderung und sonstige Behinderungen aktuell erfassen und auswerten kann.

Siehe: http://www.hubcab.org/#13.00/40.8154/-73.8500

Hierfür ist eine Verknüpfung verschiedener Datenbanken nötig. Für die Verarbeitung und Auswertung derart großer Datenmengen reichen heutige Statistik- und Visualisierungsprogramme kaum noch aus. Daher kommen andere Softwaren zum Einsatz, die sich derzeit noch in der Entwicklung befinden. Diese Software laufen „parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern“. (http://de.wikipedia.org/wiki/Big_Data)

Auf der Cebit, eine der größten IT-Fachmessen der Welt (weitere Information siehe: http://de.wikipedia.org/wiki/CeBIT) , war Big Data, unter dem Motte: „Datability: Die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen.“  ein Hauptthema der aktuellen Ausstellung im Jahre 2014. (http://www.cebit.de/de/news-trends/trends/datability/), Viele Unternehmen binden das Konzept Big Data in ihren Messevorträgen mit ein.

Ein Erklärvideo für die Deutsche Messe AG.: http://www.youtube.com/watch?v=T9t3h8M6aOg&feature=player_detailpage

Persönliche Darstellung/Meinung zum Thema Big Data

Wie in dem Video zu erkennen ist, kann mit Hilfe von Big Data das Leben für uns erheblich vereinfacht und uns angepasst werden. Dies ist jedoch nur der positive Aspekt von Big Data. Gelangen große Datenmengen in falsche Hände, führt der Missbrauch der Daten zu noch größeren Schäden als es bisher bei Datenmissbrauch der Fall ist. Schleicht sich erst einmal ein Fehler in die Statistik ein, ist es noch schwieriger diesen zu finden. „Im schlimmsten Fall hat man dann zwar mathematisch folgerichtige und scheinbar klare Ergebnisse – die aber faktisch falsch sind.“ (vgl. Kraus: http://www.omikron.net/Datenqualitaet-wird-zur-Herausforderung-von-Big-Data-Strategien.html)

Für uns Anwender von Smartphones und anderen Gerät ist er schwer zu überblicken, welche Daten genau gesammelt werden, da die Datenaufnahme der Geräte automatisch ablaufen, wie beispielsweise die Standortbestimmung im Smartphone, um aktuelle Wetterdaten zu erlangen. Die rechtlichen Grundlagen müssen an die technischen Entwicklungen angepasst werden. Nur so ist eine Grundsicherung der persönlichen Daten möglich. Es ist noch nicht vorhersehbar in wie weit das Konzept von Big Data in Zukunft noch erweitert wird. Besteht erst einmal eine Verknüpfung verschiedener Datenbanken wird diese auch zu Nutze gemacht. In jedem Fall geben große Mengen an persönlich nutzbaren Daten Unternehmen noch mehr Macht den Kunden zu manipulieren. Beispielsweise kann das Kaufverhalten von Kunden „treffsicher“ berechnet und somit vorhergesagt werden, wie es das Unternehmen mar,an,con auf der Cebit 2014 präsentierte. (http://www.marancon.de/)

 

Quellen:

http://www.heise.de/newsticker/meldung/Big-Data-Rohstoff-der-Informationsgesellschaft-1659622.html; Stand: 15.03.14

http://www.spiegel.de/netzwelt/web/das-internet-der-dinge-erzeugt-2-8-zettabyte-daten-a-872280.html; Stand: 15.03.14

http://www.hubcab.org/#13.00/40.8154/-73.8500; Stand: 14.03.14

http://de.wikipedia.org/wiki/Big_Data; Stand: 14.03.14

http://www.cebit.de/de/news-trends/trends/datability/; Stand: 14.03.14

http://www.omikron.net/Datenqualitaet-wird-zur-Herausforderung-von-Big-Data-Strategien.html; Stand: 15.03.14

http://www.marancon.de/; Stand: 15.03.14

 

23andMe

http://blog.23andme.com/wp-content/uploads/2010/05/23andMe_Logo_blog.jpg

23andMe ist ein US-amerikanisches Unternehmen, welches im April 2006 gegründet wurde.

Gründer des Unternehmens sind Linda Avey, Paul Cusenza und Anne Wojcicki. Letztere hat enge Kontakte zu Google. Anne Wojcickis Schwester ist Vizepräsidentin und ihr Ehemann, Sergey Brin, Mitbegründer von Google.

 

Das Unternehmen analysiert die Speichelproben von privaten Kunden auf Krankheiten, Veranlagungen und dessen genaue Herkunft (Ahnenforschung). Private Personen können somit durch einen kleinen Preis ($99) genetische Informationen erlangen. Das Konzept dieses Unternehmens spiegelt sich im Unternehmensnamen wider. Ein Mensch besitzt 23 Chromosomenpaare, daher 23andMe. Seit 2008 können auch deutsche Kunden Informationen über ihr Genmaterial erlangen.

Video (Ablauf der Analyse/Einblicke in das Labor):
https://www.youtube.com/watch?feature=player_embedded&v=0gC8RQ7PemM

Ziel des Unternehmens ist es, möglichst viele Daten aus aller Welt zu sammeln, um weitere Forschungsergebnisse über Krankheiten und die Herkunftsinformationen aufstellen zu können.

Seit Ende 2013 erstellt 23andMe jedoch keine Aussagen mehr darüber aus, in wie weit eine Kunde von einer Krankheit betroffen ist, bzw. in wie weit ein Risiko einer Erbkrankheit bestehen könnte.

Durch einen Warnbrief von der US-Pharmaaufsicht  der darauf hinweist, dass das Unternehmen keine Zulassung für eine medizinische Interpretation der Analysenergebnisse hat, stellte das Unternehmen die Auswertung der Ergebnisse ein.

Es werden nur noch Aussagen über die genetische Abstammung und die reinen DNA-Analysedaten erstellt.

Eigene Darstellung/Meinung zum Thema 23andMe

Ich finde das Konzept dieser Firma ziemlich fragwürdig. Natürlich ist es interessant zu erfahren, ob man von einer Erbkrankheit betroffen ist oder von wo man genau abstammt, jedoch beruht die Interpretation der Ergebnisse nur auf Statistiken und nicht auf ärztliche Befunde. Für Menschen, die sehr labil sind, kann eine Diagnose schon große Auswirkung haben.

Es könnten unnötige Kosten für verschiedene ärztliche Diagnosen folgen, die nur aufgrund dieser Ergebnisse des Unternehmens anfallen würden. Wenn der Kunde die Ergebnisse bekommt, ist er mit den Diagnosen völlig allein gelassen, erhält keine Beratung und muss selbst entscheiden, wie er damit umgeht. Im Zweifelsfall könnte die Diagnose das Leben der betroffenen Person retten. Dabei ist nicht gesagt, dass diese Diagnose exakt  ist bzw. ob eine Erbkrankheit jemals ausbrechen würde bei der betreffenden Person. Es ist undurchsichtig, wie die Datenbasis zustande kommt. Es werden lediglich statistische Werte ausgegeben, wie das Krankheitsbild bei ähnlichen Fällen abgelaufen ist.

Was genau mit den persönlichen Daten passiert, wohin sie genau gelangen, bleibt für den Kunden schwer zu überblicken. Ob diese Daten allein für die Forschung weiter verwendet werden ist fragwürdig.

Bezug zur Schule?

Bezogen auf die Schule, kann mit Hilfe dieses Themas jede Form von Datenerzeugung, welche Intention diese Firmen verfolgen und in wie weit die Weitergabe persönlicher Daten der Vergangenheit auch in der Zukunft problematisch werden könnten, mit den Schülern und Schülerinnen diskutiert werden. Es sollten Diagnosen hinterfragt werden, um verschieden Algorithmen die von Computersystemen stammen nicht blind zu vertrauen. Es sollten nicht nur die Algorithmen hinterfragt werden, sondern auch die Interpretation der Ergebnisse. Außerdem sollte darüber diskutiert werden, wie sicher die Datenwege und die Datenverwaltung solcher Datensammler sind.

 

Quelle:

https://www.23andme.com/; Stand: 13.03.14

http://www.welt.de/gesundheit/article122646220/23andMe-stellt-medizinische-Analysen-ein.html; Stand: 13.03.14

http://de.wikipedia.org/wiki/23andMe; Stand: 12.03.14

http://www.ctrl-verlust.net/23andme-wie-ich-fur-todkrank-erklart-wurde-und-mich-wieder-gesund-debuggte/; Stand: 13.03.14

http://www.reddit.com/search?q=23andme; Stand: 13.03.14

http://www.wiwo.de/technologie/forschung/rueckschlag-fuer-google-behoerde-stoppt-googles-dna-tests/9127328.html; Stand: 13.03.14

W3C

Einführung

Um den Austausch von Informationen zwischen den Wissenschaftlern zu erleichtern, entwickelte Berners-Lee mit Robert Cailliau ein Konzept für ein weltweites Hypertext-Projekt. Grund für das Konzept war seine Arbeitsstelle (CERN – Europäische Organisation für Kernforschung). Teile der Laboratorien befanden sich auf schweizerischen und französischen Gebieten. Diese Räumliche Trennung sorgte für eine unterschiedliche Netz-Infrastruktur und somit zur einem erschwerten Informationsaustausch bzw. geringe Aktualisierung der Ergebnisse der Wissenschaftler.

bernerslee-404_682192c    OnDesk-2100k

Um diesen Problem entgegen zu wirken entwickelte Berners-Lee, die Seitensprache HTML, das Transferprotokoll HTTP, die URL, den ersten Browser WorldWideWeb und den ersten Webserver unter dem Betriebssystem NeXTStep. Ihm war bewusst, dass nur eine konsequente Nutzung der “Netzsprachen” zu einer Erweiterung des WordWideWebs führen konnte.
Aus diesem Grund wollte Berners-Lee die Spezifikationen der “Netzsprache” vom Internet Engineering Task Force (IETF) standardisieren lassen.

IETF: “Die Internet Engineering Task Force (IETF; deutsch Internettechnik-Arbeitsgruppe) ist eine Organisation, die sich mit der technischen Weiterentwicklung des Internets befasst, um dessen Funktionsweise zu verbessern.” ( http://de.wikipedia.org/wiki/Internet_Engineering_Task_Force)

Da das IETF-Treffen im Jahre 1992 in Boston zwar eine Arbeitsgruppe aufstellen ließ, die für die Standardiserung zuständig war, diese aber keine konsquenten Standards hervorbrachte, entstand das W3C.

Das Gremium

Das World Wide Web Consortium (Kurz W3C) ist ein Gremium zur Standardisierung des World Wide Webs. Gegründet wurde das Gremium am 1. Oktober 1994 am MIT Laboratory for Computer Science in Cambridge (Massachusetts). Gründer und Vorsitzender des W3C ist der oben erwähnte Tim Berners-Lee.

Das W3C ist für die Entwicklung technischer Spezifikationen und Richtlinien zuständig. Sie entwickeln neue Standards für die Programmierung von Internetseiten. Beispiele solcher Sprachen sind Hypertext Markup Language (HTML), Extensible Hypertext Markup Language (XHTML), Extensible Markup Language (XML), Cascading Style Sheets (CSS), Really Simple Syndication (RSS), Scalable Vector Graphics (SVG), Synchronized Multimedia Integration Language (SMIL).

Diese Standardisierung sollte dafür sorgen das weltweite Internet noch transparenter zu gestalten und somit ein kontrolliertes und dauerhaftes Wachstums des World Wide Web garantieren. Nur mit der konsequenten Nutzung der Technologien URI, HTTP und HTML oder einer Standardisierung des Internets kann der Internationale Charakter des WWW´s aufrecht erhalten werden.

Es arbeiten 50-60 Personen für das W3C. Sie leiten die organisatorischen Prozesse und sind meist in einer der drei Hostorganisationen (MIT, ERCIM und Keio University) angestellt. Zudem wird das W3C von seinen ca. 400 Mitgliedern und vielen freiwilligen Helfern unterstützt. Sie nehmen z.B. an Diskussionen teil, welche über Mails bearbeitet werden oder übersetzen Empfehlungen. Außerdem arbeiten sie an der Verbreitung der W3C-Empfehlungen durch eigene Webseiten, Broschüren oder ähnliches.

W3C-Standards

Obwohl das W3C viele grundlegenden Standards festgelegt hat, „ist das W3C keine zwischenstaatlich anerkannte Organisation und damit genau genommen nicht berechtigt, zum Beispiel die ISO-Normen festzulegen. (Dennoch bilden W3C-Standards, wie zum Beispiel XML die Basis mancher ISO-Normen).“  (http://de.wikipedia.org/wiki/World_Wide_Web_Consortium)

Die Standards des W3C´s werden als W3C-Empfehlungen bezeichnet. Sie versuchen dabei ausschließlich Technologien zu nutzen die frei von Patentgebühren sind. Neue Standards und Erweiterungen werden in Form von “Working Drafts” zur Disskussion freigegeben. Nach Beendigung der Diskussionen über den neue Standard, wird er als Empfehlung (Recommendations) veröffentlich und festgelegt.

Dafür ist es wichtig verschiedene Technologien mit einander zu verknüpfen bzw. sie miteinander kompatibel zu gestalten. Somit kann fast jede Soft- und Hardware unter den gleichen Voraussetzungen das Web nutzen.

Befürworter der W3C-Standards werben mit kürzeren Ladezeiten von Browsern, kostengünstigen Anpassung  z.B. des Layouts der Seite durch separate CSS Formatierung und bessere Suchmaschinenergebnisse.

Für W3C konforme Seiten kann dieses Zeichen auf der jeweiligen Webseite eingefügt werden:

w3c

 

(Prüfung ob W3C-Konform hier: http://validator.w3.org/)

Die wichtigsten Aufgaben noch einmal zusammengefasst:

  • Universelle Nutzbar- und Zugänglichkeit von Soft- und Hardware
  • Verbesserung des semantischen Internets (bessere Suchmaschinenfunktion)
  • Erstellung vertraulicher Internetseiten ermöglichen (Nutzer vor Missbrauch schützen)
  • Entwicklungsfähige Programmierungssprache produzieren (Möglichkeiten durch Anpassung und Weiterführung)
  • hohe Ausfallsicherheit gewährleisten durch Dezentralisierung
  • schnelle Übertragung von großen Datenmengen ermöglichen
 Eigene Darstellung/Meinung zum Thema W3C-Standards:

Wie die wichtigsten Aufgaben zeigen, denke ich ist es sinnvoll eine Standardisierung für das Programmieren von Internetseiten zu erstellen. Nur so können die verschiedenen Browser die Internetseiten entschlüsseln. Die Schnelligkeit des Internets wird verbessert, da es zu verbesserten Datenübertragungen kommen kann. Ich denke man kann eine Standardisierung für das Programmieren von Internetseiten mit einer Weltsprache wie beispielsweise Englisch vergleichen. Erst wenn viele Menschen das Englisch verstehen ist eine Verständigung und Interpretation von Aussagen möglich. Wenn gleichbleibende Quelltexte und Standardisierungen beibehalten werden kann eine unkomplizierte Verarbeitung von Daten und Internetprotokollen stattfinden. Nur dadurch ist das Internet so kompakt geworden und kann auch weiterhin beliebig erweitert werden.

Quellenverzeichnis (zum Text):

http://www.crea-content.com/was-ist-der-w3c-standard; Stand: 19.11.2013

http://de.wikipedia.org/wiki/World_Wide_Web_Consortium; Stand: 12.11.2013

http://de.wikipedia.org/wiki/Tim_Berners-Lee; Stand: 12.11.2013

http://www.w3c.at/sieben.html; Stand: 13.11.2013

http://www.barrierefreies-webdesign.de/knowhow/html-und-css/bedeutung-der-webstandards.html; Stand: 16.11.2013

W3C noch einmal zusammengefasst:

 Video: Was ist W3C?!

Ist deine Seite auch W3C konform?

Finde es heraus:

http://validator.w3.org

 

Weiteres über W3C:

W3C – Mitgliederliste

W3C in sieben Punkten

Grundgerüst einer HTML-Datei

W3C-Kritik: Apple verstößt gegen Open Source

HTML-Standard: W3C hält an Plänen zur Integration von DRM fest

Brendan Eich kritisiert DRM-Entwicklung im W3C

 

Douglas Engelbart – Der Mann, der die Computermaus erfand

Douglas Engelbart geboren am 30. Januar 1925 und gestorben am 2. Juli 2013 war einer der größten US-amerikanischer Computertechniker und Erfinder.

Seine bekanntest Erfindung war 1963 die Computermaus ( X-Y-Positions-Anzeiger für ein Bildschirmsystem).

Prototyp der ersten Maus
(http://de.wikipedia.org/wiki/Maus_%28Computer%29)
Prototyp der ersten Maus

Vorreiter seiner Idee war Vannevar Bushs (1890-1974). Seine Vision war es eine informationsverarbeitende Maschine herzustellen (Memex). Es war ein fiktiver Kompakt-Analog-Rechner, der als persönliches Werkzeug eingesetzt werden konnte. Gebaut wurde Memex nie.

Diese Idee wollte Douglas Engelbart weiter entwickeln um es irgendwann praktisch umsetzen zu können.

„Seine Forschung wurde dabei zum Teil auch von der ARPA finanziert, für die er nicht nur Werkzeuge für die Online-Zusammenarbeit entwickelte, sondern auch einen der ersten vier Knoten des Arpanets an seinem Institut einrichtete und verwaltete.“ (http://de.wikipedia.org/wiki/Douglas_C._Engelbart)

ARPANet_689

(Bildquelle: http://www.brightsideofnews.com/print/2011/6/29/social-networking-90—reboot-%28history-of-social-networking%29.aspx)

Im Dezember 1968 wurde die Computermaus und der Rechner (NLS) auf der Herbsttagung der American Federation of Information Processing Societies (AFIPS) der Öffentlichkeit präsentiert.

Dreißig Jahre NLS (oN Line System), die futuristischen Konzepte von Douglas Engelbart.

Dennoch fand der Computermaus wenig Beachtung, da sie noch keinen weiteren Nutzen in der damaligen Zeit hatte. Computer waren damals nur zur Eingabe von Kurzbefehlen benötigt, die durch die Tastatur zu tätigen waren.

Wer hatte somit das erste Patent auf der Computermaus?

„Für das auf zwei rechtwinklig zueinanderstehenden Rädern basierende Prinzip erhielt Engelbart am 17. November 1970 das Patent US3541541.“ ( http://de.wikipedia.org/wiki/Maus_%28Computer%29)

17. November 2010 – Vor 40 Jahren: Computermaus wird patentiert

Die Weiterentwicklung der Maus erfolgte in den 1970er Jahren am Palo Alto Research Center (PARC) der Firma Xerox.

Die Kugelmaus wurde 1971 in der Firma Xerox PARC von William English entwickelt. Auch Appel entwickelt das Prinzip der Kugelmaus weiter, brachte es aber zusammen mit dem Rechner Lisa auf den Markt. Durch die hohen Preise hatte dieser Rechner keinen Erfolg.

Weitere Firmen die für die heutige Computermausentwicklung von großer Bedeutung waren sind: Logtech, Microsoft, Mouse System.

 

 Vergleichbare Entwicklungen Heute?

Es ist schwer vergleichbare Entwicklungen Heute zur damaligen Erfindung der Maus zu finden. Heute wird viel schneller und viel mehr Technologie rund um die Computerindustrie herausgebracht. Meiner Meinung nach immer wieder es immer wieder bahnbrechende Erfindungen geben, von denen wir heute noch gar nicht wissen, was sie für uns in der Zukunft bringen werden. Ohne die Computermaus wäre der Umgang mit Computersystemen heute undenkbar. Mit der Erfindung der Touchpads wird die Benutzung der Computermaus jedoch immer weniger. Trotzdem denke ich, dass die Maus als “Zeigewerkzeug” noch für längere Zeit bestehen bleibt. Die Entwicklung einer vernetzen Wohnung und damit die Steuerung aller Geräte durch ein Touchpad oder Eingabegerät lässt die Maus vielleicht für den Privatkunden in nächste Zeit aussterben. Jedoch denke ich, dass gerade in Berufen mit viel Computerarbeiten, die Maus noch essentiell bleibt.

Quellen zum Text:

http://de.wikipedia.org/wiki/Maus_%28Computer%29; Stand: 05.01.14

http://de.wikipedia.org/wiki/Douglas_C._Engelbart; Stand: 06.01.14

http://www.spiegel.de/netzwelt/web/on-line-system-die-revolution-kommt-noch-a-13713.html; Stand: 05.01.14

http://www.chip.de/bildergalerie/Geschichte-in-der-Hand-45-Jahre-Computermaus-Galerie_33968394.html; Stand: 15.03.14

http://www.t-online.de/computer/id_15648394/stirbt-die-computermaus-bald-aus-.html; Stand: 15.03.14