Recording: Mac vs. PC (Lüfter-Lautstärke)

Es wird aber ja niemand gezwungen RAM und Festplatten bei Apple zu kaufen.
Diese Komponenten kann wirklich absolut jeder wechseln, sogar ohne Garantieverlust (abgesehen von der HDD im iMac).
Das erste was ich bei meinem MacBookPro gemacht hab, war nen Festplattentausch. Das sind vier Mini-Schrauben und dann ein Stecker, den man umstecken muss.
Ram genauso. Beim iMac kann man glaub ich den Ram sogar komplett ohne etwas zu schrauben tauschen.

Apple ruft da Preise auf, die nur auf die absolut oberfaulen oder (sorry) dummen Leute abzielen.

Die Hardware mein ich jetzt gar nicht mal. Software upgrade´s eher und das eingehend damit manche Programme dann ebenso nen upgrade erfahren müssen.

CoreAudio ist unumstritten hervorragend aber was RME mit seinen Audiointerfaces bzw. Soundkarten bietet für den PC ist auch nicht von schlechten Eltern und ja ASIO 2.0 ist da auch an Board aber eben Hardwaregegossen
zB. die RME HDSP 9652
für den veralteten PCI Steckplatz
und dann die neuste MADI (RME HDSPE MADI)
ich denke damit läßt es sich auch ganz gut arbeiten.

Dann gibt es mittlerweile USB/ASIO Treiber für Externe Interface´s


http://www.dbsys.de/webshop/product_info.php?products_id=103

einfach mal ausprobieren.


Ach was ich noch fragen wollte wer von euch kann im nachhinein sagen was wo mit welchen Computer aufgenommen wurde, ich denke das es das Ergebniss ist was zählt und irgendwie macht es da wenig Sinn
zu streiten welches System das bessere ist. Denn im grunde genommen liegt es dann am Anwender und man kann mit beiden Systemen recht gut aufnehmen.

@968 was du da abgelassen hast "Firewire (auch besser für Audio) gibt es auch bei PCs, aber nur bei den teuererereren" zeugt echt wie wenig du informiert bist.
Der PC ist ein offenes System welches du dir je nach deinen Bedürfnissen zusammen stellen kannst. Also Firewire kostet echt nicht die Welt, da ist es teuerer nen Paket nach Österreich zu verschicken.

Zitat:und im Videobereich ist er auch stark.

Komisch nur das die meisten Schnittstudios ob es ein OK oder eben auch ein Öffentlicher ist PC´s in ihren Schneideräumen zu stehen haben was für den Ton ebenso gilt.
War schon öfter beim MDR und auch beim WDR und konnte mir das mal anschauen. Kann ja mal nen Bild von den Schneideplätzen bzw der Tonregie von unserem OKS machen.
Adobe zB ist ein sehr mächtiges Programm zur Bildbearbeitung der PC ist was Vektorberechnungen an geht sehr schnell aufgrund dessen das man seit ein paar Jahren zB das CUDA von Nvidia nutzen kann.
Dort werden die Rechenprozesse von der GarKa bewältigt. Ebenso lassen sich hier rasent schnell Dateien konvertieren. Also was Rendering betrifft ist der Mac da leider nicht das Produkt der ersten Wahl, was Bildbearbeitung im professionellen Bereich anbelangt, trotz OpenCL und mittlerweile hat Nvidea CUDA auch für Mac freigegeben. Aber da macht der Mac halt zu viele Probs. was du dann auch im Nvidea Forum nachlesen kannst.
Früher war es noch der Amiga 2000/4000 der für Furore in den Hollywood-Studios sorgte und das für damalige Verhältnisse zurecht.
Schade das Commodore da irgendwie die Entwicklung dann verpasst hat, hatte auch mal nen Amiga und war begeistert.

Zitat:Bei den Bankern liegt der Anteil der PCs bestimmt bei 90%. Die machen glaube ich auch gerne so tabellarische Listen mit Rechnungen drin

Das einzige was die da brauchen ist ne starke Graka damit sie Multimonitoring betreiben können für die Tabellen reicht der kleinste Celeron.

Zitat:Es ist halt dieses übertriebene Technik-Geschwafel, was man oft bei Dosen Usern hört.

Und weißt du was mich wundert das du als Mac-Fanboy es doch irgendwie hinbekommst mit Leuten die nen PC haben zu kommunizieren.
Allein schon das du dich lustig machst über Win-User ebenso könnte man meinen du lässt dich gerne veräppeln.
Lass mich raten du hast nen Ei-Phone:) Musste sein nimm es nicht persönlich aber wer austeilt muss auch einstecken können oder?
Weil das übertriebene Technickgeschwafel kommt grad auch von dir wenn du über Firewire usw. schreibst.
Ich finde es Ok wenn du dich über deinen Mac definierst und wie gut der dich im Audio-Bereich macht aber bitte rede keine Sachen schlecht von denen du im Grunde genommen keine Ahnung hast.


Einmal für Notebook und sowas von günstig
http://www.google.de/products/catal...X&ei=K_4HT4OIA8XVsgbyoOGCDw&ved=0CJgBEPMCMAU#

und einmal für den Desktop wenn nicht schon vorhanden

http://www.google.de/products/catal...X&ei=K_4HT4OIA8XVsgbyoOGCDw&ved=0CIsBEPMCMAI#

auf meinem
GA-P67A-UD5-B3 ist es vorhanden schimpft sich IEEE1934
http://www.gigabyte.de/products/product-page.aspx?pid=3762#sp
 
Zuletzt bearbeitet:
@968 :D Du siehst da was falsch, ein PC IST ein Kernkraftwerk, einfach mit USB Anschluss :D Deshalb brauchts ja auch eine Wasserkühlung...
Aber um auch wieder ernst zu werden, solche eigentlich "lächerlichen" Begriffe gibts ja überall. Ich sag jetzt einfach mal MissionControl :D Und soweit ich weiss war der erste Serien-PC mit Wasserkühlung ein PowerMac xD

Bzgl. den Schnittstellen, da ist der PC ansich auch gut aufgestellt. Wie Andy65 schon geschrieben hat, das schöne am PC ist ja, dass man sich sowas günsitg nachrüsten kann - man hat sogar die freie Auswahl beim verbauten FW Chip. Das wird sich wohl in absehbarer Zeit auch so mit Thunderbolt einstellen.

Thunderbolt wird allerdings - so wie es aktuell aussieht - eher eine Nieschenschnittstelle und FW ablösen. Bei allen Vorteilen (z.B. der für "uns" genialen Synchronisation) hat Thunderbolt (aktuell) einfach zwei zu grosse Hemmschwellen für die Massen:
1.) Die Bandbreite im Vergleich zum ursprünglichen LightPeak zu stark beschnitten. Damit reicht es zwar noch für eine "normale" Dockingstation, aber z.B. das (sinnvolle) anschliessen einer externen Grafikkarte in der Dockingstation ist nicht mehr möglich. (deshalb hat auch Sony bei ihrer Thunderboltumsetzung den ursprünglichen "optischen USB-Anschluss" beibehalten.
2.) Trotz der Beschneidungen (die zur Kostensenkung gedacht sind) ist Thunderbolt für die Masse noch zu teuer.
Wer nicht auf die Spezialitäten von Thunderbol angewiesen ist, der kann seine externe HD/Stick massiv günstiger über USB3.0 betreiben. Dort kostet sowohl die Schnittstelle als auch die Peripherie weniger als bei Thunderbolt. (und die Auswahl ist bereits jetzt relativ gut)

Wenn diese zwei Probleme aus dem Weg geschafft wurden - und das ist beides technisch machbar - dann sehe ich ebenfalls grosses Potential in der Schnittstelle.
Allerdings lauern bereits Konkurrenten... aktuell hat natives USB3.0 bereits eine gute verbreitung, für externe Geräte soll der kommende PCI-E 4.0 Standard nach aussen führbar sein (allerdings noch Gerücht) und dank WirelessDisplay (übrigens auch von Intel) und WirelessUSB könnte es bald erst gar keine Kabel mehr am PC haben - wobei mir ganz persönlich vor dem Gedanken graust, ich würde deutlich lieber auf ein Kabel setzen.

Der Grund für die hohe Verbreitung von Macs bei den genannten Industrien ist mMn. nicht Hardwarebezogen, sondern rein wegen der Software. :) evtl. ab und zu auch noch aus historischen Gründen.
 
@968 was du da abgelassen hast "Firewire (auch besser für Audio) gibt es auch bei PCs, aber nur bei den teuererereren" zeugt echt wie wenig du informiert bist.

Er hat nicht von Firewire sondern von Thunderbolt gesprochen, und in der Tat findet man das in keinem günstigen PC.
In meinem Mac Mini mit Intel i5 Sandy Bridge und 8GB Ram für 500€ hingegen schon ;)
 
... Früher war es noch der Amiga 2000/4000 der für Furore in den Hollywood-Studios sorgte und das für damalige Verhältnisse zurecht.
Schade das Commodore da irgendwie die Entwicklung dann verpasst hat, hatte auch mal nen Amiga und war begeistert.
ich hänge da mal noch den Atari ST dran, damit das Bild etwas kompletter wird.
Du bedauerst Commodore und beklagst dich über Apple Preise

die in den 80er Jahren das erste Mal präsentierte (Mac) Lösung hatte einen immensen Entwicklungsaufwand.
Die beiden (seinerzeit) Apple 'Mitbewerber' haben das völlig unterschätzt und waren weder von der Fertigung noch von der Software-Technologie her adaequat ausgestattet.

Dieser überdurchschnittlich hohe Aufwand für Forschung und Entwicklung ist auch ein Preisfaktor.
So etwas muss betriebswitschaftlich abgesichert sein.
Das Eiphone ist in Cupertino nicht vom Himmel gefallen: das Newton Message Pad ist von 1987 (und dürfte Apple ein Vermögen gekostet haben)
In IOS finden sich zahlreiche Referenzen an die ursprüngliche Macintosh System-Architektur.
So eine Kontinuität kostet auch Geld. Besonders, wenn man den Anspruch hat, die besten Entwickler zu beschäftigen.

Zitat:Bei den Bankern liegt der Anteil der PCs bestimmt bei 90%. Die machen glaube ich auch gerne so tabellarische Listen mit Rechnungen drin
Das einzige was die da brauchen ist ne starke Graka damit sie Multimonitoring betreiben können für die Tabellen reicht der kleinste Celeron.
es ist nicht wirklich wichtig, aber (es tut mir leid, das zu schreiben) du hast keine Ahnung von was du da schreibst.
Multi-Monitoring hat man ebenfalls (rate mal bei welcher Firma...) bereits 1987 betrieben und da existierten die von dir genannten Chips nicht mal auf dem Reisbrett.

Übrigens plug and play: Karte rein, Monitor angeschlossen, im Kontrollfeld die Position vermerkt, fertig.
Wie du dich vielleicht erinnerst war der Anfang der 80er Jahre wenig bunt.
Der erste Mac hatte einen schwarz-weiss Bildschirm - aber sein Grafik-System war bereits 'farbig' ausgelegt.
Dieser SW Bildschirm war damals sündhaft teuer...
aber man wollte ein ergonomisches und qualitativ herrausragendes System.
Denselben Anspruch findest du heute bei iPhone und iPad wieder.
Der erste Mac hat damals eine neue Ära des 'desktop computing' eingeleitet, das haben iphone und ipad in ihren Bereichen ebenfalls bereits erreicht.
So etwas nennt man Kontinuität und das gibt's nicht umsonst.

... das du als Mac-Fanboy es doch irgendwie hinbekommst mit Leuten die nen PC haben zu kommunizieren.
wieso müssen sich Leute, die betriebswirtschaftlich denken, als 'dumme Jungs' bezeichnen lassen ? (rhetorisch gefragt)
abgesehen davon, dass 968 den thread gar nicht selbst eröffnet hat (um Parolen abzulassen), ist in seinen posts in der Regel ein enger Bezug zur (Studio) Arbeitswelt herauszulesen.
In dem Bereich zählt nicht nur der bereits erwähnte 'Return of Investment', sondern auch die Gesamtkosten-Situation (TCO).
Dort konnte jahrzehntelang keine Mehrplatz Installation mit einer vergleichbaren Apple Lösung konkurrieren.
Obwohl die Gerätepreise mal wesentlich höher waren (relativ betrachtet)

typisch: du zitierst Geräte nach völlig irrelvanten Kriterien (hier: entspricht 1394 Standard)
dass es beim PC entscheidend ist, welcher Chipsatz auf der (Steck)Karte benutzt wird, scheint dir gar nicht bekannt zu sein...
Denk dich in die Situation eines Studiobetreibers, der dann (für seinen PC) flugs mal so eine Karte mitbestellt...
Funktioniert nicht.
Wie lange schätzt du, braucht er um zu erkennnen, dass er bei der Installation nix falsch gemacht hat...
verschärfen wir das mal mit... er hat keinen Foren-Anschluss (wie-auch-immer)
Die kleine schei** 18,99 Karte kostet am Ende ein halben Arbeitstag
das ist die Realität der sogenannten grossen Freiheit :p
(ich verdiene einen Teil meiner Brötchen in der Richtung, aber du kannst mir glauben, dass es mich privat so was von ankotzt...)
apropos: PC professionell im Grossunternehmen... was schätzt du, wieviel Konfigurationsfreiheit du DA hast ;)
(Stichwort: Fernwartung für > 100 Arbeitsplätze) :gruebel:

du solltest die persönlichen Anmerkungen nicht zu persönlich nehmen. So sind sie nämlich nicht gemeint. Eher stellvertretend.
imho könntest du da ruhig etwas nachbessern - muss aber nicht...

cheers, Tom
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Zitat:Übrigens plug and play: Karte rein, Monitor angeschlossen, im Kontrollfeld die Position vermerkt, fertig.
Wie du dich vielleicht erinnerst war der Anfang der 80er Jahre wenig bunt.

Nicht dein ernst sag nur IBM http://www.homecomputermuseum.de/comp/99_de.htm
der erste PC für den Consumermarkt mit wenn man denn wollte ner 8Bit Graka die bunt konnte:)
Aber hey Amiga war nie teuer zu Zeiten des 386/486 und wenn man ne Blackbox hatte und I-net war alles sogar recht günstig wenn nicht umsonst was Software anbelangte:)
Meine sogar behaupten zu können das nen PC mit gleicher Rechenleistung teurer war. Ich für mein Teil war mit dem Amiga 1200er sehr zufrieden hatte damal keine 500DMark gekostet der PC mit gleicher Leistung in etwa das doppelte. Den Amiga konnte man einfach an den Fernseher anschliessen.
Apple und Commodore hatten eins gemeinsam (By 1977 personal computers were fully assembled and ready to use, not do-it-yourself kits. The Apple II and Commodore PET were based on the MOS Technology 6502 microprocessor designed by former Motorola engineers)
Und das AmigaOS ähnelt dem MacOS auch sehr.


Bei mir ist es so ich steck die Karte rein, installiere sie und es dauert keine 10 Minuten dann läuft sie:) Was du machst weiß ich nicht?
IEEE1934 ist immer STD egal welcher CHIP drauf verbaut ist von daher total irrelevant deine Aussage. Das gilt auch für den PC so exotisch is er dann auch wieder nicht das es keine Normen gibt:)

Zitat:(Stichwort: Fernwartung für > 100 Arbeitsplätze)
???? also find ich schon lustig habe schon etliche Seminarräume mit sagen wir mal bis zu 50 oder mehr Rechnern eingerichtet und auch vernetzt und administriert.
Es wird nur schwierig wenn verschieden Firmen in einem Komplex tätig werden und dann auch unterschiedliche Softwarelösungen anwenden aber ist immer eine nette Herausforderung sich dem Prob. zu stellen und es auch zu lösen.
Mit Cloud wird die Zukunft rosiger. Ebenso schreitet Die Virtualisierung in anderen Bereichen voran, da auch immer mehr rohe Rechenleistung zur verfügung steht.
Also einfach mal die Scheuklappen abnehmen und nicht immer nur auf das Apple Symbol starren.

Und deine inschutznehm-Massnahme ist rührend aber lese bitte 968 Post er zieht vieles in lächerliche und dann lese meinen nochmal da geht es eben darum. (Und wo hab ich "dummer Junge" geschrieben?) Liegt an deiner interpretationweise und lege mir bitte keine Worte in den Mund die ich so nicht gesagt hab. Betriebswirtschaftlich kann ich für mich "persönlich" sagen ist der PC durch seine geringeren Anschaffungskosten, gesetzt dem Fall ich würde ein Managerbewußtsein an den Tag legen, eher der Regel entspricht. Eine nette Studie über Betreibswirtschaftliche Prämissen http://dixi.bussole.de/Bazar1.html#DosAndDonts


Ach den Entwicklungsaufwand den Apple zum größten Teil betrieben hat, war Dinge die es schon gab aufzumotzen und das ist auch heute noch so.
Ich kenne die Autobiografie des Steve Jobs sehr gut und weiß auch um die gescheiterte Beziehung zu Bill Gates, darüber müssen wir nicht reden aber immerhin konnte und durfte Bill Gates nach der Wiederkehr des Jedi Ritters des Computerzeitalters das Unternehmen ja noch retten;) Die Macht sei auch mit dir!
Ich wage sogar zu behaupten das es in naher Zukunft möglich sein wird MacOS auf einer PC-Plattform zu installieren (Legal ,weil jetzt schon möglich dank X86 und geflashten Eprom.)
Wieso hat sich PT (Avid) Von der Hardwarebeschränkung verabschiedet? Muss man sich mal auf der Hirnhaut zergehen lassen.

Was echt seltsam ist das jeder der mit Apple im Studio arbeitet auch seine Probs mit Multimonitoring hat ob es das Klonen oder um Desktoperweiterungen geht immer happert es an der Auflösung oder anderen Dingen.
Aber so kann es auch funzen:
http://www.matrox.com/graphics/de/solutions/mac/




 
Zuletzt bearbeitet:
Multimonitor support würde ich jetzt nicht gerade auf der Habenseite beim Mac verbuchen. Da fluche ich jeden Tag drüber. Mit Windows wäre das funktional und einfach und mit Linux könnte ich mir das wenigstens so einrichten dass es tut wie es soll...

Letztens hat bei mir auch der Tastaturtreiber rumgespackt - mit einer Apple bt-Tastatur. Ließ sich dann in win98 Manier durch Neustarten beheben. Nicht falsch verstehen, ich liebe mein MacBook, aber es ist nicht so dass das perfekt wäre.

Was wenig beachtet wird, mir aber sehr wichtig ist: Das Fontrendering. Text sieht auf Apple Geräten einfach viel schöner aus, was gerade beim Programmieren eine Wohltat ist.
 
zunächst mal: ich nehme niemanden in Schutz - so bin ich erstens nicht gestrickt und so ernst nehme ich Äusserungen in Foren nicht ;)
ich wollte damit nur auf einen Aspekt hinweisen, der mir untergegangen schien.
der (oder auch sein) gelegentlich ironisch-sarkastischer Schreibstil ist mir durchaus geläufig - seh ich locker.

wir reden hier nicht von Klötzchengrafik - sondern von Bitmaps.
Das war noch bis in die 90er sündhaft teuer (ich habe Karten für 4-7k DM verkauft), erforderte in PCs immer einen speziellen Treiber und manuelles Setzen der Interupts der Karte. Ein Plug and Play mit automatisch verteiltem Desktop oder Anwendungsfenstern gab es unter Windoze erst sehr, sehr spät.
Und auch dann keineswegs global. Beim Mac ging das mit jeder Karte, weil es vom System her gar nicht anders möglich war.

Natürlich war der Amiga nie teuer und auch Atari nicht, deswegen kam ja kein Geld rein und deswegen wurde nichts entwickelt.
Jedenfalls nicht auf angemessenem Niveau.
Das ist der Grund, warum es Apple heute noch gibt und die anderen nicht mehr. So einfach ist das.
Ein professioneller Kunde zahlt gern für diese Kontinuität, wenn die 'Gesamtlösung' läuft.

die nette Studie mag ich mir nicht antun - das sieht nach masslosem Geschwafel aus...
Was ist Rechenleistung ?
(vielleicht können wir hier noch einen nützlichen Bildungs-Nebeneffekt erzielen...)
Es is nicht die CPU mit ihrer Taktfrequenz und Speicheranbindung. (bezogen auf dein Zitat: ein PC mit gleicher Rechenleistung)

ist ein weitverbreíteter Irrtum.
Entscheidend, ist die Qualität der Programmierung.
Aus einem (sagen wir) C-Programm macht ein Complier Maschinencode. Laufzeit C1 für eine Aufgabe: X Sekunden.
Wenn man das Programm genauer untersucht, wird man (in C) höchstwahrscheinlich verbessern können. Laufzeit C2: X/2.
Nimmt man sich (bei entsprechenden Kenntnissen) den Maschinencode vor und optimiert ihn manuell: Laufzeit C2/5.
Dh die letzte Version läuft um den Faktor 10 schneller, als das ursprüngliche Programm.
Mit einem 300 MHZ Celeron schaffe ich das gleiche Ergebnis, wie mit einer 3 GHZ CPU.
(dual, quad und sonstige cores, sowie spezielle Anweisungen in der CPU plus on chip cache etc mal für's Prinzip weggelassen)

heute wird 90% des Programmcodes von Generatoren erzeugt
dh heisst deutlich uneffizienter (in der Ausführung) als es ein halbwegs talentierter Entwickler formulieren würde.

Und genau auf dem Gebiet waren die klassischen Macs mit ihren lächerlichen Taktfrequenzen der PC Programmierung um Lichtjahre voraus.
In einem 68k Mac hat die CPU den kompletten Grafikbildschirm zusätzlich zum Anwenderprogramm berechnet.
Und das keineswegs langsam. Weil die Systembasis handoptimierter Maschinencode war.
(in dem Bereich ist 10 als Faktor keineswegs das Limit, es kann auch mal 40 sein...)

was es mit dem Thema zu tun hat ?
Geld - sowas kostet Geld. Ist aber nachhaltig, übrigens so nachhaltig, dass es Apple selbst suspekt wurde ;)

cheers, Tom

---------- Post hinzugefügt um 15:34:23 ---------- Letzter Beitrag war um 14:15:06 ----------

vorab: ich habe die Biografie von Herrn Jobs nicht gelesen und habe es auch nicht vor.
Bin lange genug für den Laden und in seinem Umfeld tätig gewesen.
Logischerweise System-übergreifend - ich entwickle sogar *lach* auf einer Windoze Krücke.
Man muss halt nehmen, was da ist und praktisch denken.
In meinem Fall heisst das: ich brauche die 'Logik' der Anwendung, egal ob das jetzt ein SDK oder eine DAW ist.
Solange mir der darunter liegende Schwachsinn des Betriebssystems nicht zu sehr in die Quere kommt, ist es mir wurscht.

In dem Unternehmen für das ich meist tätig bin gibt es Macs und PCs.
Daher bekomme ich hautnah mit, wie sich das in einem grösseren Verbund darstellt.
Nicht in einer 50-fachen Reproduktion eines Seminar-Setups, sondern in der realen, harten Wirklichkeit.
Über Lösungen wie SAP muss man nicht diskutieren, da geht kein Weg dran vorbei.
Bei der 'normalen' Office-Kommunikation sieht das aber schon etwas anders aus.
Virtualisierung ist ja ein nettes Schlagwort...
Citrix ist von der Idee her genial - von der Realität (oder der Umsetzung) her ist es grotesk. ;)

allerdings muss ich mich für eine eventuell unklare Ausdrucksweise entschuldigen.
Das eigentliche MacOS (womit Apple sich seinen Ruf erarbeitet hat) gibt es heute nicht mehr.
Meine Beispiele waren (wie ja angegeben) aus eben der Zeit.
Imho gehört das durchaus noch in einen 'modernen' Kontext, speziell wenn man die Preisfrage stellt und eben die Kontinuität einer Entwicklung betrachtet.
Diese Dinge wären ohne den Aufwand in Forschung und Entwicklung schlicht nicht möglich gewesen.
Finanziert wurde das über deutlich höhere Gerätepreise.

Was mit den heutigen Einnahmen passiert, wissen wir (Aussenstehenden) nicht.
Aber in der Vergangenheit wurden bis zu 30% der Unternehmenseinkünfte in dieser Form re-investiert.

Über den intellektuellen Abstieg der Firma Digidesign als Avid Tochter mit Microsoft Beteiligung muss man nicht spekulieren.
Mir drängt sich (permanent) der Verdacht auf, dass die Redmonder mit all ihrer Finanzmacht bemüht sind, soviel Personal wie möglich vom Markt wegzukaufen um diese Leute dann in obskuren Bastelprojekten für eine fürstliche Bezahlung Zeit verplempern zu lassen...
Alle 2-3 Jahre wird dann eine noch weiter aufgeblähte Version ihres 'OS' als das non-plus-ultra verteilt.
Es wird aber nie wirklich besser oder gar effizienter... sonderbar... bis zum nächsten release candidate.

Apple hat mit OSX im Prinzip denselben Weg eingeschlagen. Siehe ua die Klagen über nicht passende Bildschirme ;)
Die Leute haben die klassischen MacOS Systeme einfach viel zu lange genutzt.

IOS stellt sich plötzlich ganz anders dar. Schlank und anwenderfreundlich...
Ist man in Cupertino unter die Samariter gegangen ?
Wohl eher nicht: da gibt es einen Shop, eine sehr enge Anbindung an selbigen und 'Speicher', den Apple vermarktet.
An den Vertrieb von Musik hat man auch Bücher, TV und Hollywood Streifen 'drangehängt'.
Plus Anwendersoftware, die man früher gar nicht verkauft hat. Als download praktisch mit null Kosten für den Hersteller.
Das ganze System ist ausgesprochen komfortabel und scheint auch entsprechend was abzuwerfen.
Ergo kann man dem Kunden seinen 'Komfort' lassen und sich 'Freundlichkeit' auf die Fahne schreiben. :D

cheers, Tom
 
  • Gefällt mir
Reaktionen: 2 Benutzer
Hallo Freunde,

darf ich bitte auch meinen Senf zu dieser Diskussion hinzugeben?

Ich bin im letzten Jahr das zweite Mal umgestiegen von Windows auf OS X. Benutze meinen Rechner auch beruflich sehr intensiv und war auf der Suche nach einem ultraportablen Rechner mit richtig Power. Ich habe mir ein Macbook Air mit i7 und 4 GB RAM zugelegt. Seitdem mache ich alle meine Büroarbeiten und meine Trainings (IBM WebSphere MQ, Message Broker und DataPower auf Window und Linux) nur noch mit dem MBA und VMWare. Heruntergefahren wird das MBA nur noch bei Software-Updates von Apple, sonst nur schlafengelegt.

Leute, ich habe lange Jahre nur Windows benutzt, da war das in dieser Form nicht möglich. Ich habe immer noch einen Rechner, bei dem das letzte automatische Update nicht vollständig durchgeführt wurde und einen Rechner, der nach dem Schlafengehen nicht mehr aufwacht. Ich habe lange genug Stunden mit Fehlersuche und Neuinstallation verbracht, habe schon mit Spezial-Software Datenrettung versucht und das sogar größtenteils erfolgreich. Ich habe da einfach keinen Bock mehr drauf!!! Und die Linux-User habe ich früher auch nicht verstanden, denn man musste ja doch viel mehr anpassen als bei Windows, früher halt. Inzwischen mag ich es.

Ich glaube nicht, dass OS X perfekt ist, aber zumindest in einigen Bereichen besser als Windows. Ease of use ist halt nicht schlecht, weil ich meine Zeit nicht mehr mit Systemtuning oder fehlersuche vergeuden will.

Ich habe auch eine Diskussion mit Arbeitskollegen gehabt, wegen der Reglementierung der Apps und Software durch Apple usw., und dass ja Android viel offener sei als iOS. Ich für meinen Teil brauche keine 9 Millionen Apps, und wenn einige aufgrund der Regularien von Apple aus dem Katalog rausfliegen, ist mir das auch vollkommen wurscht. Ich bin ziemlich fokussiert auf meine Anwendungen, und dies sind meine beruflichen Dinge und die Recording-Software, d.h. Cubase und die Plug-Ins.

Vielleicht liegt's an meinem Alter, ich muß nicht mehr gegen alles sein und habe genug Zeit mit Computern verbracht. Es ist nett, das MBA einfach nur aufzuklappen und ins Internet zu gehen und die Emails zu lesen. Egal ob ich zu Hause bin, im ICE oder in einer Airport Lounge, mit 1,35 kg auf dem Schoß. Es ist einfach. Letztens hatte ich 55 Tage Uptime, bevor es einen Software Update gab und ich neu gestartet habe.

Klar, es gibt auch bei Apple noch Vieles zu verbessern, und, so böse es klingen mag, mit dem Ausscheiden von Steve Jobs könnten sich einige Dinge in den nächsten Jahren entschärfen. Im Moment bin ich aber echt zufrieden mit meinem MBA, und jetzet steige ich gerade studiomäßig auf Mac um. Schaun mer mal.

Greetz,
Herb
 
Zitat Telefunky:
Es is nicht die CPU mit ihrer Taktfrequenz und Speicheranbindung. (bezogen auf dein Zitat: ein PC mit gleicher Rechenleistung)

ist ein weitverbreíteter Irrtum.
Entscheidend, ist die Qualität der Programmierung.
Aus einem (sagen wir) C-Programm macht ein Complier Maschinencode. Laufzeit C1 für eine Aufgabe: X Sekunden.
Wenn man das Programm genauer untersucht, wird man (in C) höchstwahrscheinlich verbessern können. Laufzeit C2: X/2.
Nimmt man sich (bei entsprechenden Kenntnissen) den Maschinencode vor und optimiert ihn manuell: Laufzeit C2/5.
Dh die letzte Version läuft um den Faktor 10 schneller, als das ursprüngliche Programm.
Mit einem 300 MHZ Celeron schaffe ich das gleiche Ergebnis, wie mit einer 3 GHZ CPU.
(dual, quad und sonstige cores, sowie spezielle Anweisungen in der CPU plus on chip cache etc mal für's Prinzip weggelassen)

Du erzählst mir da nix neues.
C++ ist eine progressive Programmiersprache und viele Lehrbücher sind veraltet weil die meisten Compiler entsprechent modifiziert bzw weiterentwickelt wurden.
Wieso wohl werden Rechenintensive Programme teilweise auf die GPU ausgelagert? Weil zB 448 Prozessoren (Shadereinheiten) paralell schneller arbeiten.
Und die GPU ist mittlerweile voll C programmierbar und nicht nur über nen SDK.

Zitat:
university_of_tennesse_thumb.jpg
"Grafikprozessoren haben sich dahin gehend entwickelt, dass sich viele gebräuchliche Anwendungen einfach auf dem Grafikprozessor implementieren lassen und darauf wesentlich schneller laufen als auf bisherigen Multi-Core-Systemen.Die System-Architektur der Zukunft ist ein Hybridsystem aus Grafikprozessoren mit parallelen Recheneinheiten und Multi-Core-CPUs."
-- Jack Dongarra, Professor und Leiter des Innovative Computing Laboratory, University of Tennessee




Und wir sind auf dem besten Weg in den nächsten Jahren 32 und mehr CPU´s in unseren Rechnern mit Programmen, die dann auch darauf ausgelegt sind zu füttern.
Also um viewiel schneller würden deinem Beispiel nach die Rechner sein wenn sie wirklich ihr Potential nutzen würden, soll heissen wenn die Software entsprechend angepasst würden. Hier werden schon Sachen aufgefürhrt wie PCI-e 3.0 und eigentlich gibt es noch keine Hardware die es wirklich voll ausnutzt geschweige denn eine Software die die ganze Bandbreite nutzen könnte.
C++ hat sich aus einer Studie herraus entwickelt. Ich denke Stroustrup wird wohl das genommen haben was Unix gut macht und hat das schlechte weggelassen.

Ach was ich vergaß um die Befehlssätze in der CPU wird du aber nicht drumrumkommen weil sich sonst deine Möglichkeiten beschränken. Hallo Welt;)
 
Zuletzt bearbeitet:
die nette Studie mag ich mir nicht antun - das sieht nach masslosem Geschwafel aus...
Was ist Rechenleistung ?
(vielleicht können wir hier noch einen nützlichen Bildungs-Nebeneffekt erzielen...)
Es is nicht die CPU mit ihrer Taktfrequenz und Speicheranbindung. (bezogen auf dein Zitat: ein PC mit gleicher Rechenleistung)

ist ein weitverbreíteter Irrtum.
Entscheidend, ist die Qualität der Programmierung.
Aus einem (sagen wir) C-Programm macht ein Complier Maschinencode. Laufzeit C1 für eine Aufgabe: X Sekunden.
Wenn man das Programm genauer untersucht, wird man (in C) höchstwahrscheinlich verbessern können. Laufzeit C2: X/2.
Nimmt man sich (bei entsprechenden Kenntnissen) den Maschinencode vor und optimiert ihn manuell: Laufzeit C2/5.
Dh die letzte Version läuft um den Faktor 10 schneller, als das ursprüngliche Programm.
Mit einem 300 MHZ Celeron schaffe ich das gleiche Ergebnis, wie mit einer 3 GHZ CPU.
(dual, quad und sonstige cores, sowie spezielle Anweisungen in der CPU plus on chip cache etc mal für's Prinzip weggelassen)

heute wird 90% des Programmcodes von Generatoren erzeugt
dh heisst deutlich uneffizienter (in der Ausführung) als es ein halbwegs talentierter Entwickler formulieren würde.

Und genau auf dem Gebiet waren die klassischen Macs mit ihren lächerlichen Taktfrequenzen der PC Programmierung um Lichtjahre voraus.
In einem 68k Mac hat die CPU den kompletten Grafikbildschirm zusätzlich zum Anwenderprogramm berechnet.
Und das keineswegs langsam. Weil die Systembasis handoptimierter Maschinencode war.
(in dem Bereich ist 10 als Faktor keineswegs das Limit, es kann auch mal 40 sein...)

was es mit dem Thema zu tun hat ?
Geld - sowas kostet Geld. Ist aber nachhaltig, übrigens so nachhaltig, dass es Apple selbst suspekt wurde ;)

Ich erinnere mich noch, als ich um 1990 herum ein neues Betriebsystem auf meinen Mac SE installierte. Es waren 2 Disketten mit 800 kB. Auf der dritten mitgelieferten Diskette waren Zusatzprogramme wie Hypercard.

Zur gleichen Zeit brauchte man für das Betriebssystem des PC 13 (!?!) Disketten. Es war halt einfach ein DOS = Dirty Operating System. Und die Relikte aus diesen alten Tagen findet man heute noch auf dem PC - man denke nur an strg+alt+entf, da krieg ich immer Handkrebs :bang:

Und zum Ausschalten der Kisten muss man auf START klicken. Das hat eine innere Logic, die sich in dem Dirty Operating System fortsetzt.

Und nun wieder was mit mehr Gehalt.
Es wurde beschrieben das der PC offen sei und man alles dranbauen kann, auch das für Audio bessere FireWire.

Allerdings wird das dann bei einem Laptop etwas schwierig.



CoreAudio ist unumstritten hervorragend aber was RME mit seinen Audiointerfaces bzw. Soundkarten bietet für den PC ist auch nicht von schlechten Eltern und ja ASIO 2.0 ist da auch an Board aber eben Hardwaregegossen
zB. die RME HDSP 9652
für den veralteten PCI Steckplatz
und dann die neuste MADI (RME HDSPE MADI)
ich denke damit läßt es sich auch ganz gut arbeiten.

Ich erinnere mich noch, da hat RME einen 3 Seiten Artikel im Studio Magazin oder Audio Professional geschrieben. Thema war die Gegenüberstellung von USB und FireWire mit dem Ergebnis, dass USB für Audio ungeeignet ist und RME deswegen nichts dafür entwickelt.

Na, die sind sich ja dann ihrer Linie treu geblieben.

MADI ist ein aussterbendes Format. Mit doppelter Samplingfrequenz gibt es nur noch die halbe Kanalzahl. Für die öffentlich rechtlichen ist das ok, die bleiben wahrscheinlich ewig bei 48 kHz.

Immer mehr Studios arbeiten heute mit 96 kHz und mehr. Da macht MADI keinen Spass mehr und die neuen Lösungen für Audio via Ethernet können da viel mehr zu einem günsitgeren Preis, z.B.

http://www.focusrite.com/products/audio_interfaces/rednet_pcie_card/

Mehr Möglichkeiten für weinger Geld wird MADI bei den freien Studios den Garaus machen. Die ÖRs können da von mir aus weiterhin das Geld zum Fenster rauswerfen.

Das machen die auch bei anderen Lösungen gerne, und so sind dort die PCs auch in den Schnittstudios weit verbreitet, obwohl dort Mac Mit Final Cut Pro für einen Bruchteil des Geldes mehr könnte. Ich kenne einen Sender, wo eine gleichwertige Bestückung der Studios mit FCPro 200.000 € günstiger gewesen wäre als mit Avid auf PC. Da war wieder mal die Administratoren Lobby am Werk, die ihre Felle davon schwimmen sah. Denn der Wartungsaufwand wäre mit dem Mac viel geringer gewesen. Und wer sägt denn schon gerne am eigenen Ast - die könnten sich ja dann nicht mehr so wichtig machen weil alles viel einfacher geht.
 
Zuletzt bearbeitet:
Sorry aber selbst da bist du nicht auf dem laufenden RME hat sehr wohl was schönes in petto fürs Läppi Fireface, Babyface. Oder wenn man möchte greift man zu Apogee.
Das ist ja das schöne man hat die Qual der Wahl und kann und darf selektieren.
Die Madi kann schon bis zu 192Khz solltest du aber wissen.
Für mich ausreichend bis zu 32 Kanäle zu 96Khz mit einer Karte zudem kann man die Karte ja noch kaskadieren.

Lustig das du Fosusrite als Beispiel anführst, hab mir erst vor 2 Monaten das kleinste Interace Scarlett fürs Läppi zugelegt und find es gut:)

http://www.rme-audio.de/products_hdspe_madi.php


 
Zuletzt bearbeitet:
Also vorweg kurz bzgl. PCI-E, da habe ich schon 4.0 gemeint :)
Ich weiss, dass aktuell erst die Einführung von 3.0 läuft, aber meine Aussage war eigentlich auf die Zukunft von Thunderbolt gerichtet und da muss man wohl in etwas längereren Zeiträumen denken.

Ansonsten ein kleiner Gedankeneinwurf bzgl. Notebook und FW: das ist bei Windowsnotebooks in niedrigeren Preisbereichen durchaus schon zu sehen und wo FireWire fehlt, ist oftmals ein ExpressCard Slot bereit :) Insofern ist auch dort die Abdeckung eigentlich relativ gross. Aber klar, Notebooks sind schwieriger zum Aufrüsten. Das hat allerdings wenig mit dem Hersteller zu tun, sondern eher mit der Bauform.
 
Genau. Notebooks sind weniger offen als Desktops oder Towers - egal ob Mac oder PC. Die Mac Notebooks, also die MacBook (Pro oder selbst Air) sind halt besser ausgestattet in Bezug auf Audio. Aber das sind ja nur Kleinigkeiten bezüglich der wirklich guten Argumente von Telefunky oder Metalherb. Das Betriebssystem macht den großen Unterschied und ist in Verbindung mit der definierten Hardware (weil halt eben gerade nicht jeder dran rumbastelt und verschlimmbessert) ein Riesenvorteil. Core Audio und die besseren Schnittstellen für Audio tun dan ihr Übriges.
 
Genau. Notebooks sind weniger offen als Desktops oder Towers - egal ob Mac oder PC. Die Mac Notebooks, also die MacBook (Pro oder selbst Air) sind halt besser ausgestattet in Bezug auf Audio.
Das kann ich allerdings nicht so recht nachvollziehen.

Thunderbolt mag die Zukunft sein (bin ich sogar fest von überzeugt), aktuell ist es der Verbinder zu Apples Thunderboltdisplay. In der Audiopraxis hat das noch keine Relevanz.
Bei den Airs ist kein Firewire dran und USB Stecker gibt es zwei.


Ich sehe da jetzt keinen Nachteil vom Standard-Windows Notebook. Beim USB Interface tut sich das nichts bzw. da ist wenn man Haare spalten will ein MacBook im Nachteil, FireWire ist auch in so manchen Notebooks drin oder man bekommt es per ExpressCard rein (was ich gegenüber einem Thunderbolt-FW Adapter nicht als Nachteil ansehen würde) und reine Thunderboltlösungen sind noch irrelevant.
Das läuft so ziemlich auf Gleichstand hinaus.

Was die Softwareoptimierung angeht: Die Ausführungen stimmen, aber das heutige OS X basiert auf Darwin was ein FreeBSD Ableger ist. Und BSD ist für alles bekannt, aber garantiert nicht für Geschwindigkeit. Das war dort nie primäres Designziel, eher Stabilität und Portierbarkeit. Und man kann sich sehr sicher sein dass man in keinem relevanten Teil des Betriebssystem noch handgeschriebenes Assembler im größeren Umfang findet. Wäre auch Blödsinn. Und bis vor kurzen hat man da meines Wissens nach auch den Standard gcc benutzt bis man sich llvm reingeholt hat.

Die ganzen Vorteile finde ich ein wenig konstruiert. Es stimmt schon dass gerade was den Consumer-Hardware Markt angeht man heulen will und Apple da durchaus seine Vorteile hat, auch dass so einige Visionen und Innovationen im Produktdesign von dieser Firma ausgingen und ausgehen. Aber wenn es zum technischen Hintergrund kommt wäre es vermessen zu denken dass überall anders nur Idioten arbeiten. Im Linux Kernel steckt nicht weniger KnowHow, und in Windows ziemlich sicher auch nicht - auch wenn man das schwer überprüfen kann. Es ist ja sogar so dass viele gute Leute regelmäßig zwischen den Lagern wechseln.
Gerade was Softwarequalität angeht hat zum Beispiel Microsoft in den letzten Jahren extrem was vorgelegt, auch was die grundlegende Einstellung dazu angeht.


OS X und iOS machen schon verdammt viel richtig, aber es ist ziemlich sicher nicht per Design überlegen. Am Ende des Tages ist es ein stinknormales Unix mit einem vernünftigen Audio Stack und einer schicken Oberfläche.

Ich bin ja auch von vielem begeistert, aber dieses extreme Fanboy Gehabe kann ich ehrlich gesagt nicht nachvollziehen. Irgendwie haben die ganzen Studios die mit einem PC arbeiten ja bis heute überlebt, also scheint es ja möglich zu sein...
 
  • Gefällt mir
Reaktionen: 2 Benutzer
ist zwar nicht Mac versus PC aber den kann ich nicht auslassen... :D
... C++ ist eine progressive Programmiersprache und viele Lehrbücher sind veraltet weil die meisten Compiler entsprechent modifiziert bzw weiterentwickelt wurden.
was hat ein Lehrbuch (üblicherweise Strategie und Anwendung einer Programmiersprache) mit Complier-Optionen zu tun ?
(oder meinst du die Dokumentation eben solcher Optionen ?)

anyway, C++ ist der hilflose Versuch, Leuten die nicht selbstständig denken können gewisse Strukturen vorzugeben.
Es wurde mal als next big thing gehyped - aber schon da schrieb der (aufmerksame) Teil der Fachpresse:
Fragen Sie nicht, was es kostet C++ einzuführen - fragen Sie lieber wie teuer es wird, das wieder loszuwerden. :D
Danach war es C#, inzwischen gibt es F# (da müsste ich lesen...), wird vielleicht 'ne Tonleiter...

warum ich darüber lästern kann ?
ich habe mal mit einer C Bibliothek gearbeitet die komplett objektorientiert war, aber nur Ansi C als Sprache/Compiler brauchte.
ALLES was man für die tägliche Drecksarbeit braucht (Fenster, Text, Liste, Grafik, Tabelle) war Bord.
Frei schachtelbar, also Tabelle aus Grafiken in Tabellenfeld oder ähnlich. 2 MB Objektcode Runtime.
Das war so klar strukturiert, dass die Kommentierung der header files als Doku ausreichte.
Und es war schnell.
Entscheidend ist aber, dass es eine ganze Programmiersprache überflüssig machte. :p

Wieso wohl werden Rechenintensive Programme teilweise auf die GPU ausgelagert? Weil zB 448 Prozessoren (Shadereinheiten) paralell schneller arbeiten.

ich finde auch, dass Begeisterung etwas schönes ist, aber zumindest den groben Überblick sollte man bewahren.
mit der Parallelisierung von Prozessen tut man sich schon lange schwer, bei bitmaps ist es bekanntlich kein Thema, aber bereits bei einem simplen Mixdown in der DAW liegst du damit auf dem Bauch...
Egal ob du es vertikal (channel plugins) oder horizontal (trackweise) anfängst, es kommt immer was dazwischen. ;)
Mr. Dongarra schreibt da nichts ungewöhnliches, Intel CPUs sehen ja heute schon so aus... :gruebel:
Allerdings würde ich das 'für die Zukunft' nicht unterschreiben. Die sehe ich eher bei FPGAs.

... Also um viewiel schneller würden deinem Beispiel nach die Rechner sein wenn sie wirklich ihr Potential nutzen würden, soll heissen wenn die Software entsprechend angepasst würden. ...
du hast mich anscheinend missverstanden. Das hat es alles schon gegeben.
Es war keine Geheimwissenschaft, sondern öffentlich zugänglich - und das ist es immer noch (zumindest grösstenteils).
Glaubst du ernsthaft, dass ich mit einer C Bibliothek arbeite, und diese in Redmond nicht bekannt ist ? LOL
Die hätten sie sogar kaufen können, samt Unternehmen, aus dem Handgelenk - warum haben sie das wohl nicht ?
Warum gibt Apple sein Betriebssystem auf und nimmt Unix als Basis, das sie früher in der eigenen Werbung verteufelt haben ?

merkst du wie der Hase läuft ? Sie halten dir eine Karotte an der Angelleine vor die Nase.
Das wird nix, niemals - man sägt nicht den Ast ab, auf dem man sitzt.
Was du aus einer 3GHZ CPU an effektiver Rechenleistung für deine Anwendung bekommst, tendiert gegen null.
Es wird immer neue Schlagworte und grössere Zahlen geben, aber unterm Strich bleibt es beim alten.

bei IOS bekommt man die Freiheit, weil man am Shop hängt - es ist praktisch unmöglich, sich dem zu entziehen.
Das Ding ist echt gut gemacht... mit Speck fängt man Mäuse. Ich hab da mehr für apps bezahlt, als für das iPad. :D

ich will dich weder verkaspern, noch bin ich ein Moralapostel.
Ich ziehe meine Schlüsse aus bestimmten Erfahrungen, nicht aus dem, was irgendwelche Leute schreiben.
Mir persönlich geht das irgendwo vorbei - ich verdiene nicht sooo schlecht an dieser Situation. ;)
Ändern kann man das sowieso nicht - aber besser einschätzen...

cheers, Tom
 
aber bereits bei einem simplen Mixdown in der DAW liegst du damit auf dem Bauch...
Audio ist naturgemäß sehr seriell und es ist Echtzeit gefordert. Mir würde spontan wenig einfallen was sich schlechter parallel abarbeiten ließe... ;)

Da ist es doch schön dass wir andersherum gar nicht so große Hardwareanforderungen haben. Von daher muss man sich eigentlich auch nicht verrückt machen.
 
@Telefunky grundsätzlich eher ein Tutorial aber synonymhaft eben ein Lehrbuch (http://www.amazon.de/Jetzt-lerne-Vi...5680/ref=sr_1_1?ie=UTF8&qid=1326014939&sr=8-1)oder eben online http://c.baeumle-courth.eu/ und http://viming.de/c++/faq:compiler . Als ich noch zur Schule ging hatte ich auch ein Mathebuch aber ich musste mir noch extra nen Lehrbuch über Integralrechnung und Analysis kaufen.
Und ich denke jedes Buch welches ein Fachgebiet beschreibt kann man dann auch getrost Lehrbuch nennen. Für totale deppen gibt es ja auch Anwenderbücher für MacOS und auch Win und die haben echt teilweise riesen Seitenumfang. Wo ich auch jedesmal schmunzeln muss das Leute sowas echt kaufen. zB. sowas hier http://www.amazon.de/10-6-Snow-Leop...4994/ref=sr_1_3?ie=UTF8&qid=1326014854&sr=8-3 oder http://www.amazon.de/Das-große-Buch-Windows-7/dp/381583031/ref=sr_1_1?ie=UTF8&qid=1326014898&sr=8-1 sind ja in dem Sinne auch Lehrbücher.

Und bezüglich deines Compilers der die Programiersprache überflüssig macht, weiß ja nicht ob GNU basiert? Heutzutage braucht auch niemand mehr in HTML ne Website per Hand programieren weil es gibt ja sogut wie alles schon also warum nicht Baukasten. Hab auch mal gerne mit Lego gespielt. Noch schöner wäre natürlich wenn der Rechner Sprachbefehle direkt umsetzen könnte.

Sorry für OT
 
Zuletzt bearbeitet:
... bezüglich deines Compilers der die Programiersprache überflüssig macht, weiß ja nicht ob GNU basiert? ...
sorry, war vielleicht nicht klar genug formuliert...
wir sind uns vermutlich einig, dass C++ nicht gerade die knappste Version einer Programmiersprache ist.
Die erwähnte (GUI) Bibliothek hat nur durch ihre Formulierung eine perfekte, objektorientierte Implementierung der Elemente erreicht.
Ergo brauchte man die (spezielle) Sprache nicht - ich fand das erstaunlich... und beeindruckend konsistent gelöst.
Effektiv kam es dem Software Lego recht nahe, weil die (oft) Kernelemente nur noch mit Inhalt gefüllt werden mussten.
Man konnte natürlich auch völlig frei definieren...
Ist aber heute kalter Kaffee, nur damit es von der Sache her klar war, was gemeint ist.

cheers, Tom
 
Was echt seltsam ist das jeder der mit Apple im Studio arbeitet auch seine Probs mit Multimonitoring hat ob es das Klonen oder um Desktoperweiterungen geht immer happert es an der Auflösung oder anderen Dingen.

Vielleicht mache ich was falsch. Aber ich habe keine Probleme damit... (30" + 24" 1920 x 1200). Für den Dritten ist im Moment kein Platz da...
 

Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben