Hi,
ich denke, es gibt viele Gründe, warum dies so ist. Die zwei aus meiner Sicht wichtigsten:
1) Bei Windows legt M$ alleine die Richtlinien fest. Im Sinne einer Standardisierung und den damit verbundenen Synergien was Support, Wartung etc. betrifft ist dies unbestritten von Vorteil. Der Nachteil, den man sich damit erkauft ist, dass man Weiterentwicklungen und Verbesserungen teilweise blockieren muss, um seine "Standards" zu halten. Man denke nur an diese völlig starre und unpraktische Laufwerksbuchstaben-Geschichte. Und es ist noch nicht sooo lange her, da war jedes Windows eine auf DOS aufgepfropfte GUI, nichts weiter.
Unix (auch Linux ist "nur" ein Unix-Dialekt) hingegen hat eine nunmehr 35-jährige Entwicklungs- und Reifezeit hinter sich. Die verlief teilweise recht turbulent. Guggst Du mal hier auf den Unix-Stammbaum (Seite 10).
Die beiden "Hauptlinien" BSD und AT&T haben sich durch kreuzweise Portierungen immer wieder gegenseitig beeinflusst. Uns do schaut In jedem der Kästchen z.B. das Filesystem-Layout ein bisschen anders aus. Und trotzdem läuft's und jeder Unix-SW-Hersteller schafft es ohne Probleme, seine Produkte auf allen nenneswerten Derivaten zum Laufen zu kriegen. Das geht halt wiederum nur, weil Unix aufgrund der frühen Aufspaltung bereits von Anfang an so flexibel sein musste, und sich z.B. auf feste Pfade (oder gar LW-Buchstaben!) nicht verlassen konnte.
2) Unix ist und war von Anfang an Netzwerk- und Mehrbenutzersystem (entgegen der Meinung vieler ist das auch ein WinXP Pro heute noch immer nicht. Erst die Terminal-Services (früher Citrix) machen ein Win zum Multi-User-System). Es musste also schon immer eine Möglichkeit geben, Dateien (auch Konfigurationen) nach Usern getrennt und separiert von den Systemdateien abzulegen, zu verwalten und auch zu nutzen. Das einzige, was hier funktioniert ist der dezentrale Ansatz. Der Nachteil ist klar: man muss immer wissen, wo man hinlangen muss. Allerdings haben sich ja auch "Pseudostandards" (z.B. /usr/local/...) ergeben, die wahrscheinlich 90% der Fälle abdecken.
Der unbestrittene Vorteil aber: die Systemdateien und die Systemkonfiguration bleiben auf diese Weise sauber! Keine "DLL-Hell", keine Registry oder System.ini mit Restfragmenten längst deinstallierter (vermeintlich deinstallierter!) Software, keine Reboot-Orgien bei Konfig-Änderungen, keine Viren/Würmer/Trojaner/Spyware von relevanter Bedeutung, sehr hohe Systemstabilität. Alleine das ist es wert, im Zweifelsfall ein bisschen nach der richtigen .conf zu suchen (normalerweise ist's ja auch dokumentiert, wo's liegt).
Es gab auch im Unix-Bereich ein paar Versuche, Standards bzgl. Filesystemlayout, GUI, Bibliotheken etc. zu setzen. Die scheiterten aber an den unterschiedlichen wirtschaftlichen Interessen der beteiligten Firmen (Stichworte: OSF, UI, COSE, UnitedLinux...)
Also, langer Rede (nennt mich "olafh...";-) ) kurzer Sinn: es hat vor- und Nachteile, aber es ist halt nun mal so, und man gewöhnt sich dran. In meinen bald 20 Jahren Unix-Erfahrung mit den verschiedensten Derivaten hat's zumindest immer geklappt!
Ciao
Jürgen