Fehlvorstellungen Informatik

Aus Unterrichtsmaterial
Dies ist die bestätigte sowie die neueste Version dieser Seite.
Wechseln zu:Navigation, Suche

Die Informatik ist die Wissenschaft der Verarbeitung, Darstellung, Speicherung und Übertragung von Informationen. Sie setzt sich zusammen aus den Wörtern Information und Automatik und verdeutlicht somit die Zielsetzung, mit Hilfe von Maschinen Probleme automatisiert und systematisch zu lösen.[1] In Zeiten der Globalisierung und der damit einhergehenden Digitalisierung nimmt die Informatik einen immer größeren Stellenwert ein. Viele Menschen kommen in ihrem alltäglichen, schulischen, akademischen oder beruflichen Leben mit Themen der Informatik in Kontakt. Obwohl die Berührungspunkte mit dieser Disziplin stetig steigen, die bildungspolitische Bedeutung des Schulfachs Informatik zunimmt und keine Errungenschaft der Neuzeit unser Leben so stark beeinflusst, bestehen bei vielen praktizierenden Informatikerinnen und Informatikern, sowie vermutlich der allgemeinen Bevölkerung Fehlvorstellungen von Informatik.

Gängige Fehlvorstellungen

Das erste große Missverständnis ist das Gleichsetzen von Informatik und Programmierung. Stellen sich Menschen den stereotypen Informatiker bzw. die stereotype Informatikerin vor, so entsteht oft ein Bild von einer Person, die allein in einem dunklen Raum sitzt und am Computer neue Programme programmiert. Klar ist, dass das Programmieren einer der grundlegenden Fähigkeiten von professionellen Informatikern und Informatikerinnen ist, jedoch erstreckt sich deren Tätigkeit auch auf viele andere Bereiche. So besteht der Entwurf von Soft- und Hardware, Netzwerken, Datenbanken oder Apps nicht nur aus dem reinen Programmieren, sondern beispielsweise auch aus einem ingenieursmäßigen Vorgehen der Planung, Modellierung und Korrektheitsanalysen. Die besondere Bedeutung der vielfältigen Themen wird auch bei Betrachtung der von der Association Of Computing Machinery (ACM) vorgeschlagenen curricularen Themen erkenntlich. So werden in diesem neben der Programmierung auch Bereiche des Computer Engineering, der Computer Science, Cybersecurity, Informationssysteme, Informationstechnologie, des Software Engineerings und der Data Science hervorgehoben.[2]

Ein weiteres Missverständnis ist, dass Programmierung oftmals als der Ausdruck von Lösungen in einer spezifischen gewählten Programmiersprache verstanden wird. Programme hingegen bilden die Grundlage zur Steuerung von Maschinen, nicht als sprachliche Darstellung möglicher Lösungswege.[3]

Als drittes Missverständnis ist zu nennen, dass viele Menschen davon ausgehen, mit einem umfassenden Wissen der Grundlagen verschiedenster Programmierkonzepte ein guter Informatiker bzw. eine gute Informatikerin zu sein.  Wie in der Erörterung der Fehlvorstellung des Gleichsetzens von Informatik und Programmierung gezeigt, sind jedoch weitaus mehr Kenntnisse von Nöten um sich als einen guten Informatiker bzw. eine gute Informatikerin zu bezeichnen. So werden beispielsweise systemspezifische Kenntnisse, Kenntnisse der Architektur und des Designs von Software, sowie Wissen bezügliche der Anwendungsdomäne benötigt, um gute funktionsfähige Software zu entwickeln.[3]

Eine weitere oft vermittelte Ansicht ist die, dass Programmieren schnell und leicht zu erlernen ist. Zwar ist heutzutage ein breites Spektrum an digitalen Programmierkursen im Internet zu finden, dennoch ist für die Fähigkeit der Programmierung typischer Anwendungen viel Aufwand und Übungszeit notwendig.

Computational Thinking wird von vielen Wissenschaftlerinnen und Wissenschaftlern, Informatikerinnen und Informatikern und der allgemeinen Bevölkerung als treibende Kraft der Programmierfähigkeiten angesehen. Anhand der Schwierigkeiten den Begriff allgemeingültig zu definieren, wird deutlich, wie komplex das Konzept des Computational Thinkings ist. Dieses bezieht sich auf das konzeptuelle Verständnis von Programmierkonzepten, die auf verschiedene Programmiersprachen anwendbar sind. Die Anfänge des Begriffs „Computational Thinking“ liegen in den 1950er Jahren im Zusammenhang mit der Vermutung, dass mit der fortschreitenden Entwicklung der Informatik eine Algorithmisierung einhergeht und durch die Entwicklung neuer Programme bestimmte geistige Fähigkeiten stärker ausgebildet werden als andere.[3] In der heutigen Zeit gibt es jedoch auch Gegenstimmen, die behaupten, dass Computational Thinking eine Fähigkeit zu denken ist, die das Erlernen von Programmierung erleichtert und somit nicht erst aus dem Lernprozess der Programmierung entsteht. Als Beispiel hierfür kann das Erbringen guter Leistungen in Abstraktionsaufgaben einer Informatikklausuren dienen. Der Schüler bzw. die Schülerin haben in diesem Falle offensichtlich grundlegende Prozesse der Dekomposition verstanden, was jedoch nicht bedeutet, dass dieser Schüler bzw. diese Schülerin zeitgleich auch gute Algorithmen entwickeln kann.[3]

Auch wird der Unterschied zwischen dem schrittweisen Vorgehen bei menschlichen Handlungen und maschinellen Vorgängen missverstanden. Dies führt oftmals dazu, dass Algorithmen missverstanden werden und überschätzt wird zu was Maschinen in der Lage sind.[3] Schrittweise definierte Prozesse, wie vom Menschen umsetzbare Rezepte, genügen nicht den definitorischen Anforderungen von für Maschinen ausführbare Verfahren.

Des Weiteren sind viele Menschen davon überzeugt, dass Computational Thinking und die damit verbundenen Problemlösefähigkeiten auf andere Fachbereiche übertragbar sind. Dies ist auch nach jahrzehntelanger Forschungsarbeit nicht nachweisbar. Anhand des Beispiels aus dem Text „Misconceptions about computer science“ lässt sich dies sehr gut verdeutlichen.[3] Im Schulfach Biologie können Lehrerinnen und Lehrer Aspekte des Computational Thinkings sehr gut einbringen, indem diese aufzeigen, wie nützlich bestimmte Bereiche der Programmierung im Fachbereich sind. Allerdings kann nur aufgrund der Tatsache, dass eine Person gut Programmieren kann, nicht daraus schlussgefolgert werden, dass diese Person auch über gute Kompetenzen im Fach Biologie verfügt.

Ein weiterer oft missverstandener Aspekt ist die Reduzierung der Informatik auf Wissenschaft und Mathematik. Historisch betrachtet stimmt dies so nicht ganz, wie im Beitrag zu den „Traditionen der Informatik“ zu erkennen.  Die ersten Computer wurden in Gänze ohne Informatikkenntnisse gebaut, indem Elektroingenieure Schaltungen entwickelten, welche logische Operationen und Berechnungen durchführten. Programme wurden zum Öffnen und Schließen dieser Schaltkreise verwendet. Im Nachgang entwickelten Mathematiker und Wissenschaftler formale Methoden, welche das Arbeiten mit diesen Schaltkreisen vereinfachten. Die Technik ging daher in gewisser Weise der Wissenschaft voraus.[3]

Auch wird die Bedeutung alter Themen der Informatik unterschätzt. Derzeit sind Themen wie künstliche Intelligenz und Big-Data sehr präsent, jedoch basiert vieles in der heutigen Zeit der Informatik auf den bekannten Prinzipien der 1950er und 1960er Jahre.[3] Forschungsbereiche wie die der künstlichen Intelligenz kamen bereits in den 1950er Jahre auf und wurden dann schwerpunktmäßig im maschinellen Lernen und der Entwicklung neuronaler Netze ausgebaut.

  1. Technische Universität Dresden. Team Informatikjahr (2006). Was ist Informatik? Eine Begriffsklärung. Online: https://tu-dresden.de/ing/informatik/ressourcen/dateien/studium/dateien/sonstige_dokumente/zugangsvoraussetzungen/zv_Was_ist_Informatik_060509.pdf?lang=de
  2. Association for Computing Machinery (2020). Curricula Recommendations. Online: https://www.acm.org/education/curricula-recommendations
  3. 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 Denning, Tedre, Youngpradit (2017). Misconceptions About Computer Science. Communications of the ACM. Online: https://cacm.acm.org/magazines/2017/3/213837-misconceptions-about-computer-science/fulltext?mobile=false