Mrz 112011
 

[Erster Teil]

Die Linke Medienakademie (LiMa) ist eine jährlich stattfindende Veranstaltung für Journalismus, Bürgermedien, Öffentlichkeitsarbeit und Medienkompetenz, die zur Zeit in Berlin stattfindet.

 

 

 

Im heutigen Workshop von Albrecht Ude (Journalist, Rechercheur, puristischer Web-Entwickler) zu Internetrecherche für Journalist_innen wurden im Laufe von knapp 5 Stunden verschiedene technische Möglichkeiten und deren Widersprüchlichkeiten mit praktischen Beispielen vorgestellt.

„Recherche im Internet bedeutet mehr, als ein Suchwort bei Google einzutippen oder einen Blick in die Wikipedia zu werfen. Erfolgreiche Online-Recherchen nehmen oft einen Umweg: Nicht versuchen, die Frage bei einer Suchmaschine anzubringen, sondern zunächst überlegen, wer die Antwort wissen könnte.“ (aus der Workshop-Ankündigung)

Als Einstiegsbeispiel wurde thematisiert, wie zu einer Radionachricht zu einem aktuellen Ereignis, hier das Erdbeben in Japan, passende Bilder für ein Printmedium gefunden werden kann. Das erste Hilfswerkzeug, was häufig Verwendung findet, aber nur unzureichend arbeitet ist die Suchmaschine Google. Der Referent betreibt einen Blog mit dem Namen „Eine Woche ohne“, um das Bewusstsein über die Abhängigkeit von dieser Quelle Google zu fördern, indem sich einmal vorgestellt werden soll, eine Woche ohne Google zu nutzen verbracht werden soll.
Als zweites Thema wurde Firefox mit seinen nützlichen Add-Ons vorgestellt, beispielsweise das Add-on Pearl Crescent für Screenshots von Webseiten und Bildern auf diesen. Des weiteren wurden verschiedene Add-ons zum anonymen und sicheren Surfen vorgestellt, da das Rechercheergebnis ohne Anonymität verändert werden kann.

Neben dem Darstellen von Alternativen Universalsuchmaschinen neben Google, wie ask.com, yahoo.com und anderen Konkurrenten wurde die Erweiterte Suche mit Google sehr detailiert vorgestellt. Ein neuer Aspekt für mich bei der Einstufung von Suchergebnissen in Google war das Ranking nach Vertrauen. Es gibt vermutlich Whitelists, auf denen besonders vertrauenswürdige Domains vermerkt sind, beispielsweise von Universitäten, die somit weiter nach oben rücken, da sie beispielsweise über Linkfarming zur Suchmaschinenoptimierung erhaben sind. Andererseits ist Google ja bekanntermaßen käuflich, also werden transparenterweise höhere Rankings durch die Privatfirma verkauft. Die Einstufung von beispielsweise Firmenwebseiten in Google ist ein klarer Wirtschaftlichkeitsfaktor.

Interessant war auch, dass die Reihenfolge der Suchbegriffe auch bei einfacher Verknüpfung unterschiedliche Ergebnisse liefert, also der Algorithmus scheinbar auch die Reihenfolge der Begriffe berücksichtigt. Es wurden die verschiedenen Operatoren der Google-Suche vorgestellt, z.B. site:xxx filetype:xxx Somit lassen sich Suchergebnisse durch Operatoren systematisch eingrenzen.

Als journalistische Kriterien der Recherche wurden Aktualität und Vertrauenswürdigkeit von Quellen genannt, bestenfalls Quellen aus erster Hand. Suchmaschinenkriterien dagegen sind anders gelagert, da hier zum Beispiel die Übereinstimmung von Domainname mit Suchbegriff hoch gewichtet wird oder die Anzahl der Zugriffe.

Als nächstes stritten wir über die Qualität vonWikipedia als Quelle: Am Beispiel des Wikipedia Artikels zu Guttenberg wurde die Versionsgeschichte von Wikipedia dargestellt. Es gab eine kleine Änderung in einem Wikipedia-Artikel zu Guttenberg, dem ein weiterer Vorname hinzugefügt wurde, die zu einer fehlerhaften Bild-Zeitungs-Schlagzeile führte und daraufhin auch im Spiegel-Online fehlerhaft übernommen wurde. Hier kam dann der Effekt zum Tragen, dass durch diese „vertrauenswürdige Quelle“ wiederum die Prüfung von Wikipedia nicht einschritt und die fehlerhafte Änderung im Artikel stehen ließ. Hierzu gibt ein nettes Schaubild der Satirezeitschrift „Titanic„:

Ein interessantes Online-tool, welches mir neu ist, ist wiki-watch.de der Universität Frankfurt (Oder), welches umfangreicher als wikibu.ch statistische Daten zu Wikipedia-Artikeln darstellt.

Zum Thema Wikipedia diskutierten wir über die Validität von Artikeln und Informationen in Wikipedia und „Edit-Wars“ vor allem bei heftig umstrittenen Themen. „Von Edit-War (wörtlich: Bearbeitungskrieg) spricht man, wenn zwei oder mehrere Benutzer abwechselnd die Änderungen anderer Benutzer rückgängig machen („revertieren“) oder überwiegend überschreiben.“ (http://de.wikipedia.org/wiki/Wikipedia:Edit-War)

Der Referent vertrat die Auffassung, dass Wikipedia als Navigationshilfe nützlich sei, als Quelle für die journalistische Arbeit allerdings ungeeignet. Ich widersprach erst, da ich denke bei einem kritischen Umgang mit der Funktionsweise und den bekannten Stärken und Schwächen der Wikipedia lässt sich ebenso wie mit anderen Quellen arbeiten, allerdings bin ich auch nicht professionell im journalistischen Bereich tätig und beschäftige ich mich nur am Rande mit den Tätigkeiten von Medienmacher_innen.

Als ein Negativ-Beispiel für einen Artikel mit unbelegten Behauptungen, die auf bewussten oder unbewussten Fehlinformationen basieren wurde der Artikel http://de.wikipedia.org/wiki/Ostfriesentee dargestellt. Dort steht eine unbelegte Behauptung, die nicht gelöscht bzw. korrigiert wurde: „Nur in Ostfriesland gemischter Tee darf sich Echter Ostfriesentee nennen“ Die Recherche ergab, dass die zuständige Behörde der EU eine vollständige Liste von geschützten Produkten hat, auf der kein Ostfriesentee vermerkt ist, also ist dies eine Fehlinformation. Sicher können auch aus Zwecken der Eigenwerbung, beispielsweise durch PR Agenturen oder bezahlte Schreiber_innen, Artikel geschönt oder fehlerhaft erstellt werden, obwohl es systematische Prüfungen und Signierungen als eine Form der Validierung in Wikipedia gibt.

[den zweiten Teil zum Workshop schreibe ich später]

Mrz 082011
 

„Der qTranslate Editor wurde deaktiviert, da es noch nicht mit dieser WordPress Version getestet wurde. Dieser Schritt ist eine Sicherheitsvorkehrung, um die Funktionalität von WordPress sicher zu stellen.“ meldet mir mein WordPress nachdem ich nun endlich das Upgrade auf WordPress 3.1 (english) installiert habe.

Ich hatte damit gewartet, da es auch eine deutsche Version geben sollte und es hieß „There is a chance this update will break your translation. You may prefer to wait for the localized version to be released.“ Die deutsche Version wurde mir im Dashboard aber nicht direkt angeboten, obwohl es sie bereits gibt: http://de.wordpress.org/

Aber scheinbar läuft das mit der englischen Version problemlos. Und gleich danach habe ich das Update des Plugins installiert, und schon läuft auch qTranslate wieder. Besser wäre gewesen, erst alle Plugins zu aktualisieren und dann das Gesamtsystem.

Dez 082010
 

Nachdem ich zu meiner aktuellen Unterrichtseinheit zu 3D-Grafik Programmierung mit POV Ray länger nichts geschrieben habe (hier und hier die beiden älteren Posts), hier nochmal der Stand der Dinge:

Ich habe zum einen die Beispiele zum Schachspiel von Stefan Baur genutzt und andererseits eigene Hintergrund-Dateien zur Verfügung gestellt, um das Konzept von include Dateien darzustellen (zwei verschiedene, „wald“ und „mondlandschaft“, Quellcode der einen Datei siehe unten).


// Datei: mondlandschaft.inc
// Autor: Hauke Morisse
// Version: 10.11.2010


# include "colors.inc"
# include "textures.inc"


//Variable "Planetchen"
#declare Planetchen = difference{
sphere {
<0, 0.2, 0>, 0.4
texture {Gold_Metal}
}
sphere {
<0, 0, -0.5>, 0.4
texture {Gold_Metal}
}
};


//Kamera
camera {
location <0,3,-10>
look_at <0,0,0>
}


//Lichtquelle
light_source {
<10,20,-15>
color White
}


//Boden
sphere { <0,-101,0>, 100
texture {Gold_Metal}
normal { bumps 1 scale 0.3 }
}


//15 Planetchen ueber while-Schleife darstellen
#declare Zaehler = 0;


#while (Zaehler <= 15)


object { Planetchen
translate <Zaehler+2,0,0>
rotate < 0,Zaehler*45,0 >
}


object { Planetchen
translate <-2*Zaehler,Zaehler,0>
rotate < 0,Zaehler*30,Zaehler*10 >
}


#declare Zaehler = Zaehler + 1;


#end

Um dann mit einem Arbeitsblatt die Genauigkeit in Quellcodes zu thematisieren und die Sinnhaftigkeit von Kommentierung:

Nächste Woche schreibe ich einen kleinen Test, in dem es auch darum gehen wird, die Beziehung zwischen Quellcode und gerendertem Bild deutlicher einzuprägen. Ein weiteres Thema ist die Dateiverwaltung, die gerade durch die #include Referenzen entscheidend in POV-Ray ist, um überhaupt Ergebnisse zu erzielen. Dies klappt leider nicht immer 😉

Als prüfungsrelevant erstellen meine Schülerinnen und Schüler in Kleingruppen eigene Bilder. Diese wurden heute als Zwischenergebnisse präsentiert, ich achte vor allem auch auf die Kommentierung und Strukturierung der Quellcodes.

A

Nov 152010
 

Leider nun entwas kurzfristig, aber immer noch nicht zu spät:

Morgen werde ich meinen Praxisbericht mit Diskussion im Seminar von Ralf Appelt an der Fakultät Erziehungswissenschaften der Uni Hamburg zum Thema „Web 2.0 und Schule“ halten und zwar ab 10 Uhr im Raum 205 VMP8.

Hierzu habe ich nun auch ein Arbeitsblatt erstellt, mit dem sich Interessierte bereits beschäftigen können, ich werde es aber morgen auch ausgedruckt mitbringen. Die Veranstaltung ist öffentlich, wenn noch jemand außerhalb des Seminars dabei sein möchte, herzlich willkommen. Ich werde auch meine entsprechenden Unterlagen mitbringen und freue mich auf eine lebendige Auseinandersetzung 🙂

Nov 112010
 

Nachdem ich nun seit März 2010 meinen neuen Blog aufgesetzt habe, habe ich mich nun auch endlich einmal um den Import meines alten Blogs gekümmert, da ich einiges Geschrieben hatte, was ich immer noch interessant finde.

Hier noch einmal die notwendigen Schritte im Einzelnen:

1. Die Inhalte des alten Blogs werden in eine XML Datei gespeichert, wobei ich Filterregeln angeben kann, welche Inhalte exportiert werden sollen:

2. Ich wechsel in den Administrationsbereich meines neuen Blogs und wähle unter „Import“ „WordPress“:

3. Ich wähle die exportierte XML Datei aus und wähle „Datei aktualisieren und importieren“:

4. Es kann festgelegt werden, ob Attachments ebenfalls importiert werden sollen, sowie ob der Autor angepasst werden soll:

5. Die entsprechenden Inhalte werden importiert:

6. Fertig! Nun muss ich nur noch etwas an den Tags und den Seiten schrauben, da einige Dopplungen durch Groß und Kleinschreibung auftreten und die älteren Artikel den neuen Kategorien zugeordnet werden sollten. Außerdem habe ich die alten Kategorien importiert, die ich eigendlich gar nicht mehr so passend finde, die schmeiß ich wohl teilweise wieder raus. Die alten englischsprachigen Artikel werde ich nochmal für mein qtranslate-Plugin entsprechend markieren oder umschreiben müssen, da dieses Plugin nicht auf dem alten Blog lief usw. …
Wie unter 2. zu sehen ist, gibt es auch viele weitere Möglichkeiten, Inhalte von anderen Blogs und Plattformen in einen bestehenden WordPress-Blog zu integrieren.I have just importet the content of my old blog and describe how to do this in wordpress with a few screenshots (see german version)

Nov 072010
 

Gerade bin ich beim Stöbern im Netz auf einen Gedanken gekommen, der sich gerade zu einer Idee erweitert. In meiner Examensarbeit beschäftige ich mich mit Perspektiven webbasierter Lernwerkzeuge in der universitären Lehre und in einem der qualitativen Interviews hatte ich vor einigen Wochen das Thema „Komplexität versus Intiutivität“ als Problemfeld herausgearbeitet. Es erscheint zwar naheliegend, das eine Plattform, die „viel kann“ auch „viel Arbeit“ bedeutet, man denke nur an die Office Standardanwendungen und die vielen Funktionen, die Großteilen der Nutzer/innen fremd sind und eher bei der Suche nach gewünschten Funktionalitäten stören. Nun ist das Problem bei vielen kleinen Insellösungen sowohl die Wartbarkeit, die Kapazitäten, die für die Einarbeitung draufgehen, als auch die Reusability von Inhalten.

Daher dachte ich losgelöst von bekannter Software und eingesetzten Plattformen an eine Vorlesung zu Didaktik, in der es um konstruktivistische Lernprozesse ging. Wie wäre es, wenn eine Plattform sich mit dem eigenen Lernprozess entwickelt? Nicht nur als Studierende in der universitären Lehre, sondern auch als Dozent/in, also in einem schrittweisen Ausbau der genutzten Werkzeuge für die Lehre? Dies wirkt erstmal kompliziert, aber eben bin ich bei der Suche nach nützlichen Plugins für meinen Blog gestolpert: WordPress funktioniert genau nach diesem Prinzip! Warum kann nicht auch eine Lernplattform mit Plugins arbeiten und es den Nutzer/innern überlassen, nach und nach das eigene System auszubauen, statt sich gleich zum Einstieg mit einer möglicherweise überwältigenden Vielfalt an Bedienelementen und Funktionen zu beschäftigen?

Oder gleich WordPress als Lernplattform nutzen?

I had just an idea while searching for useful plugins for my blog. In my final examn i write about „perspectives of webbased learningtools in teaching at universities“ and in one recent interview some weeks ago we talked about the topic „complexity of functionality and intuitivity / usability“. It seems like platforms which are „rich of competences“ are also connected to „rich of work to get into it“. So thinking of constructivism in educational science i thought about a platform which is able to develop step by step as the learning process is developing not only of the student, but also of the teacher.

In the moment i was searching for plugins i realized that this seems allready existing: plugins

If a learning platform would function like wordpress, it would be possible to start with limited but focussed functionality and develop the software step by step according to your needs and your learning process.

or just using wordpress as a learning tool?

Okt 012010
 

Im Zusammenhang mit meiner Abschlussarbeit bin ich gerade auf das Thema Identitätsmanagement / Identity Management gestoßen.  Im Zusammenhang mit dem Verhältnis von Verwaltungssoftware und webbasierten Lernwerkzeugen ist das Thema der Rollen- und Rechtevergabe eng verknüpft mit dem Zugang zu bestimmten Bereichen einer Plattform.

An der Universität Hamburg gibt es verschiedene Strategien der Zugangsprüfung. Die Zugänge zur Verwaltungssoftware „Stine“ sind bei Neuerstellung eines Kontos per Postzusendung und mit iTAN Listen geregelt, wenn das Passwort geändert werden soll, ist zusätzlich zum Einloggen in das System auch eine iTAN eingegeben werden. Dies funktioniert ähnlich dem System von Online-Banküberweisungen, indem zwei getrennte Kanäle (Web und Post) für Sicherheitsrelevante Bereiche verwendet werden.
Siehe: http://www.info.stine.uni-hamburg.de/faq_studierende.htm#Anmeldung%20in%20STiNE

Der Zugang zu den Commsy-Systemen der Universität ist weniger aufwändig, da eine Kennung selbst erstellt werden kann und die Zulassung zu einem Bereich der Plattform dezentral über die Moderator/innen des jeweiligen Raumes erfolgen. Siehe: http://www.commsy.net/pmwiki.php?n=Software/FAQ&id=4&sort=clicks

Bei OLAT, einer Lernplattform, die an der Universität Hamburg die kommerzielle Software Blackboard abgelöst hat, wird der Zugang über die Software Shibboleth direkt über das Stine Konto abgewickelt, d.h. die Stine Kennung wird auch zur Identifizierung in dem OLAT System der Universität Hamburg verwendet. Siehe: https://shib.stine.uni-hamburg.de/idp/Authn/UserPassword

Nun haben alle Mitglieder der Universität eine oder mehrere Rollen, die im Grunde genommen von den Software-Systemen sowie den Rechner-Pools, z.B. der Departments, des RRZ usw. redundant erhoben werden. Hier stellt sich also die Frage nach der Auslagerung des Identitätsmanagements aus den verschiedenen Plattformen, die auch bereits in einem Interview zu meiner Abschlussarbeit als Perspektive angesprochen wurde.

Ein interessanter Hinweis hat mich heute auf eine Präsentation von Dick Hardt zum Thema „Identity 2.0“ gestoßen. Er stellt dar, wie das Konzept der serverbasierten isolierten Sign-in Prozesse in ihrer Umkehrung als Identifizierung über einen externen Dienst geleistet werden kann, der sozusagen die Identität gegenüber den verschiedenen Plattformen zertifiziert.  Dadurch soll das Konzept von „die Plattform kennt die Identität“ zu „ich weise mich der Plattform gegenüber aus“ erreicht werden, d.h. die Autorisierung wird räumlich und zeitlich analog den nicht-digitalen-Ausweisdokumenten von der Identifizierung getrennt.

Die Sensibilität des Themas ist offensichtlich: Wenn ich das richtig verstanden habe, ist die Zielvorstellung sozusagen „e-Pässe“ zu generieren und hierzu einen zentralen und notwendigerweise globalen Dienst – schließlich funktionieren all die Plattformen wie  ebay, amazon usw. über Ländergrenzen hinweg – einrichten zu müssen, der datentechnisch eine enorme Macht generieren würde.

Zum anderen wundert mich in dem Vortrag etwas, das die Parallele zu SSL Zertifikaten nicht eingebracht wird, wo es doch auch um Zertifizierung geht und darum, Identitäten zu garantieren. Außerdem erscheinen mir „Unterschriftenlisten“-Konzepte wie die bei SSL einleuchtender und dynamischer, als zentrale „Identitäts-Tresore“. Vielleicht übersehe ich da aber auch einfach technische Aspekte.

Aber ein interessanter und lustiger Vortrag, der vor allem viele schöne Metaphern und Bilder liefert.
Die Webseite zu dem entsprechenden Softwareprodukt ist: http://identity20.com/

Hier gibt es zum Thema Identity- und Access-Management eine Datenbank mit einem Lexikon und Produktübersichten:

http://www.iam-wiki.org/

Siehe auch andere Beiträge zum Thema:

http://blog.gragert.de/?p=20

http://www.blog.tocki.de/2008-09-11/identity-20-keynote-vortrag/

Sep 172010
 

In letzter Zeit gabel ich immer mal wieder Seiten auf, die irgendwie interessant sind, aber die ich erstmal nur grob überfliege, um später vielleicht noch einmal genauer nachzulesen, was noch so drinsteckt. Daher sammel ich einfach mal diversen Kram hier an…

Vor einigen Wochen schon und dann als Entwurf zwischengespeichert ist die Seite „Krankmeldungen und Entschuldigungen online schreiben“ Mit einer gewissen Selbstironie finde ich das Projekt doch kreativ: https://www.myexcuse.de/ mit einem Kommentar auf http://www.innovatives.niedersachsen.de/news/article/krankmeldungen-und-entschuldigungen-online-schreiben-niedersaechsische-website-hilft-schuelern.html

Dann bin ich erst vor einer halben Stunde etwa an das Projekt im Rahmen eines Seminars „Computereinsatz in der Schule“ mit der Ulmer 3-Generationen Universität gestoßen, das komplett als Wiki dokumentiert interssante Ansätze für erste Schritte mit Wiki Technologie bietet. Interessant finde ich auch den Ansatz, generationenübergreifend zu arbeiten: http://de.wikiversity.org/wiki/Projekt:Computereinsatz_in_der_Schule/Projekt4

Auf der Seite: http://www.rete-mirabile.net/ gibt es „eine Sammlung von Ideen und Materialien für alle, die unterrichten“ von Andreas Kalt. Und das unter Creative Commons Lizenz. Eine super Sache, auch die beschriebenen Erfahrungen mit dem Einsatz von Blogs im Unterricht erinnert mich stark an meine eigenen Vorhaben und Vorstellungen. Hierzu passend ein Blog vom gleichen Autor mit Tipps für seine Schüler zum Thema bloggen: http://blogasyouteach.wordpress.com/

Dann hab ich noch einen Vergleich von Sozialen Netzwerken in Nutzergruppen unter dem Titel „Studie gibt Aufschluss über zielgruppengerechte Kommunikation 2.0“ gefunden: http://www.pr-journal.de/redaktion-aktuell/social-media-web-2-0/9030-studie-gibt-aufschluss-ueber-zielgruppengerechte-kommunikation-20.html das eher aus Unternehmenssicht Trends in sozialen Netzwerken analysiert: http://www.webershandwick.de/content.aspx?id=aktuell-mediaplanung-in-sozialen-netwerken

Unter dem etwas selbstironischen Titel „Scheiss auf Facebook“ gibt es einen Videoclip mit Interview unter: http://modulspace.de/2010/08/social-media-song-cris-cosmo/. Eher provokant aber doch auch für gewisse Leute sicher nicht verkehrt, sich ab und zu zu fragen, wie digital der Alltag eigendlich sein soll. Frag ich mich auch dann und wann.

Eine Plattform, die erstmal auch für meine Examensarbeit interessant erscheint ist http://www.elearning2null.de/. Hier scheint noch eine ganze Menge drin zu stecken, was ich mir bei Zeiten einmal genauer anschauen werde…

Ebenfalls in dieses Themenspektrum fällt ein Artikel zum Thema „Besser lernen im Web 2.0“ des Handelsblattes: http://www.handelsblatt.com/internet-besser-lernen-im-web-2-0;2637625 in dem es um die gezielte Einbettung von Software in Organisationen geht.

So, nun werde ich mich wieder dem „offline“ Leben widmen 🙂

Sep 142010
 

Nachdem ich ziemlich gut vorbereitet schien für den Einstieg mit POV-Ray musste ich feststellen, das das lokale Arbeiten mit neuer Software ohne Administrationsrechte voller Überraschungen steckt. Einzelne Dateien mussten manuell nachgetragen werden, da irgend etwas bei der Installation schief gelaufen war. POV-Ray erwartet nämlich spezielle lokale Einstellungen auf Windows-Rechnern, die im richtigen Pfad unter „Eigene Dateien“ liegen müssen und da ich nur wenn ich es nicht vermeiden kann mit Windows arbeite, hatte ich erst einmal Einiges zu tun.

Aber nun zum weiteren Verlauf meiner Unterrichtseinheit zu „3D Grafik – Programmierung“: Wiederholt hat sich die Spielmöglichkeit in der 3D Grafikprogrammierung für den Unterricht bewährt. Es lässt sich mit Farben und Mustern experimentieren, was von meinen Schülerinnen und Schülern schnell umsetzten. Die direkte Rückkoppelung des Quelltextes mit visuellen Ergebnissen führt zu einer motivierenden Selbstbeschäftigung, nachdem das Konzept des Renderns einigermaßen verstanden wurde. Allerdings sind die Startschwierigkeiten und heterogene Arbeitsgeschwindigkeiten nicht zu unterschätzen, was ich bisher leider zu wenig berücksichtigt habe. Es ergeben sich viele kleine Fragen, weshalb ich den POV-Ray Guide gleich zu Beginn schriftlich hätte da haben sollen. Dies werde ich nun nachholen und ihn ausgedruckt verteilen.

Als nächstes Thema werde ich zusammengesetzte Objekte einführen. Hierzu gibt es Mengentheoretische Mathematische Modelle, die direkt in POV-Ray verwendet werden können:

Hierzu wird die sogenannte CSG-Technik (Constructive Solid Geometry) verwendet, die es ermöglicht, mehrere Objekte durch Mengenoperationen zu einem neuen Objekt zusammenzufassen. Dieses kann dann wie primitive Objekte als Ganzes manipuliert (z.B. bewegt oder in Attributen verändert) werden. Als Beispiel ein Schnitt zweier Kugeln aus dem POV-Ray Guide:

Zum Einüben dieser Technik werde ich drei Kugeln als Quelltext vorgeben, die jeweils halbiert, geviertelt bzw. als dreiviertel-Kugel mit Objekten vom Typ „Box“ bearbeitet werden sollen. Als Zusatzaufgabe sollen dann für die anschließende Projektphase eigene zusammengesetzte Objekte mit Hilfe des POV-Ray Guides entworfen werden.

Aug 302010
 

Da ich gerade ein paar Stunden Physik in einer 8.Klasse vertrete, in der das Thema Akustik ist, habe ich mich noch einmal genauer mit der Software Audacity beschäftigt.

Neben der Funktion Geräusche und Musik aufzunehmen und Audio-Dateien zu bearbeiten bietet Audacity auch an, Töne aus frei wählbaren Frequenzen zu erzeugen. Dies ist besonders interessant, um den Zusammenhang von Frequenz, Wellenlänge und Schall zu visualisieren und erfahrbar zu machen. Wie ein Oszilloskop stellt Audacity das oder die Signale mit ihren Amplituden und Frequenzen dar. Es lassen sich auch mehrere Töne mischen, Rauschen sowie einzelne Klänge von der Software erzeugen. Das alles als kompakte inuitive Open Source Software, ein echter Gewinn auch für das Erstellen von Arbeitsblättern Dank Screenshots.

Ob der Einsatz auch für den Musikunterricht hilfreich ist, kann ich nicht beurteilen, ich vermute es aber. Die Frequenzen und die daraus resultierende Töne sowie Oktaven können verglichen werden und möglicherweise auch das Stimmen von Instrumenten unterstützt werden (durch eigene Aufnahmen und Vergleich mit dem maschinell erzeugten Ton) .

Die Software ist für alle drei großen Betriebssysteme Linux, Windows und Mac OS erhältlich.

Hier sind zwei Beispiel-Arbeitsblätter, die ich heute verwendet habe: