hjslfs-1.6 ist offline


  • Die (Nutz-)Gartensaison is weitestgehend Geschichte.
    Könnte also demnächst mal wieder etwas mehr Zeit für die Scripte haben.
    Hat sich ja einiges getan - wenn ich die Ursache für die drei "Abweichler" im autoscript finde ( generiert aus dem Book die Buildscripte ) dann is auch mal wieder Arbeit für den Compiler angesagt ...


    HJS



    Tjo - war doch noch etwas mehr als nur drei Abweichler :rolleyes: und irgendwie hat man ja auch mal "Winterferien" , abba auch wenn die Gartensaison schon wieder losgeht : Bin guter Hoffnung ... :gap --- nee nich schwanger


    HJS

  • Immer diese frommen Wünsche :gap


    Mittlerweile durfte der Compiler wieder schaffen, aber ob der langen Abstinenz ist ihre Gottheit mir nicht mehr wirklich wohl gesonnen :rolleyes:


    Da mir die diversen Fehler auf unterschiedlichen Hosts irgendwann mal suspekt vorkamen, hab ich mal jhalfs angestrengt.


    Zumindest wusste ich auf die Art, dass auch wirklich alle nötigen Packages im Host installiert sind.


    Leider hat auch jhalfs fürs aktuelle development n Kleinen und nen grossen Kinken eingebaut.


    efitools builden wollen, aber gettext auspacken ist nicht hilfreich, weiss ich aus Erfahrung :gap


    Ihm unter die Arme greifen führt zu einem Ergebnis, dessen Ursache ich noch nicht ganz erfasst habe ...


    Naja, lange Rede kurzer Sinn, bin tatsächlich mal wieder am Ball ...


    HJS

  • Von hjslfs-1-6-pre zu hjslfs-1-6-post. :)

  • Jo, abba die Post is spät dran


    Irgendwie treibt mich der Host zur Weissglut :§$%


    Egal was ich anstelle, spätestens bei gcc-pass2 ist das Ding gelaufen, 64bit host oder 32, Debian, manjura oder wie das Vieh hiess, Slax ( also auch Debian ) oder auch mein letzter erfolgreicher Build, gemäss prerequisites aufgepeppt ( ich bilde mir ein, es sei alles drin :rolleyes: )


    Auf nem Quadcore, Dualcore, Singlecore, jhalfs zur Hilfe, in ner VM ... streng nach Book ( als LFS, nich wie ich das typischerweise handhabe als root ) ...


    Wenn die letzte LFS_Live CD nicht so dermassen asbach wäre, dass man minnigens einen Zwischenbuild fahren müsste, und hoffen, die alten Sourcen noch alle zu erwischen ...

    Irgendwie ist mir nach :wand


    wirbel: Welchen Host nimmst Du eigentlich, wenns Dich mal wieder reitet ?


    HJS

  • Immer das bei mir aktuell noch laufende LFS, z.Z. ist mein vdr ein LFS-dev vom 08.02.2017.


    Ich generiere daraus dann immer halb-automatisch build-scripte lade mit wget die Pakete dazu herunter.

    Die werden dann immer kurz gesichtet, dann gestartet usw usf. Ich hab zum letzten Build noch alle sourcen, bash scripte und die tool chain.


    Gebaut wird immer parallel auf allen maximal möglichen Kernen, die i7-7700T x86_64 hat.

  • Immer das bei mir aktuell noch laufende LFS, z.Z. ist mein vdr ein LFS-dev vom 08.02.2017.

    War bis zur grossen Pause bei mir auch so, aber die Anforderungen sind nu halt zu hoch für das alte Sys

    Ich generiere daraus dann immer halb-automatisch build-scripte lade mit wget die Pakete dazu herunter.

    Das mach ich nu schon (annähernd fehlerfrei) vollautomatisch


    Ich hab zum letzten Build noch alle sourcen, bash scripte und die tool chain.


    mit tool chain meinst Du den Host, also den vorherigen Build oder schon den statischen /tool ?

    Wäre interessant, habe zwar parallel gesehen, dass auf sourceforge tatsächlich ein inoffizieller LFS-8.0-LiveCD-Build verfügbar ist und den mal pauschal gezogen,


    Allerdings wäre natürlich der Vergleich meine Scripte / Deine Scripte vielleicht auch sehr aufschlussreich :gap , wobei ich schon ziemliche Gurkenscheiben auf den Augen haben müsste, um so gravierende Fehler der Scripte nicht zu erkennen ( bis gcc-pass2 isses ja nich weit ).

    Mal davon abgesehen, machen auch die ausgeliehenen jhalfs Scripte ne Bauchlandung und sehen meinen ziemlich ähnlich ...


    Haste nen ftp im Einsatz ?


    HJS

  • Zitat

    mit tool chain meinst Du den Host, also den vorherigen Build oder schon den statischen /tool ?


    Yep, komplett /tool - die komplette stage 1 aus chapter5



    Sowas nobles wie nen eigenen ftp habe ich nicht.

    Ich kann dir das zwar uploaden irgendwohin (~600..700MByte gesamt), aber ich selbst hab so viel webspace nicht.

    Die bash scripte selbst könnte ich dir auch separat geben (weniger 1MByte) oder die tool chain(230MByte),

    aber die Scripte verweisen natürlich auf meine Ordner-Struktur und die per wget heruntergeladenen Pakete.

    Das zu debuggen macht dann echt Arbeit.

  • Musste nur meine ersten Cds dünne halten und auf max 65 MB begrenzen, seither mit der Domain anfangs 10, derzeit glaub ich 20 GB.


    Kost mich in der teuren Schweiz derzeit knapp 90 jährlich, das gönn ich mir :)


    BN/PW haste in der 4-Augen-Ecke


    HJS


    Gebaut wird immer parallel auf allen maximal möglichen Kernen, die i7-7700T x86_64 hat.


    Deshalb acker ich ja grad, hab z.Zt. nen i7-7700HQ mit ner nvme zur Nutzung :]

    Da geht was, wenn ich denn mal endlich was lauffähiges hinkrieg, denk ich über nen Hexacore mit ner WD Black nach, im bezahlbaren Rahmen derzeit wohl optimal, zumal ich noch ner Filemaker App MySQL/PHP näherbringen muss.

    Daher muss ich mit dem LFS mal langsam zu Potte kommen, die andere Geschichte wird besser bezahlt und n fms leidet auch nich unter was Zügigem.


    HJS

  • Ächz, langsam kommt Licht ins Dunkel ...


    Nachdem ich nun endlich den Grund für permanente Bauchlandungen bereits in gcc-pass1 stage2 heraus gefunden habe ( die Parameterübergabe bei Aufruf eines Scriptes mit der gleichen Bash Instanz funktioniert als root nicht mehr, lt Debian-aktivem Kollegen vor Ort haben die Jungs dort viel an der "Sicherheit" geschraubt ?!? ) muss ich nur noch meine Denkfehler und die Tücken des Parsens bewältigen .


    - Erstaunlich, dass Dialog bei Verwendung von Umlauten eines anderen Zeichensatzes schlicht den Dienst verweigert

    - Erschreckend, dass eine Parameterzuweisung die von ´04 bis ´13 funktionierte, bestenfalls einen Fehlermeldungshagel verursacht, dann weiss man wengstens, dass was nicht passt

    - Übelst, dass man, durch Dauerfehler begünstigt, Messages im web Glauben schenkt, mit vielen gängigen Distris sei der Build von gcc wegen "unresolved symbols" bzw Header-Fehlern nicht möglich und man eine Distri nach der Anderen checkt und kickt - weil der Fehler wie erwähnt an ganz anderer Stelle liegt.

    - Dumm gelaufen, dass beim configure als root von coreutils die Message kommt, man möge den "unsafe configure" per Parameter erlauben, aber kein Hinweis, dass dies auch beim make nötig wäre, um so unscheinbare tools wie env auch zu bauen.

    - ganz Dumm gelaufen, wenn man zwar weiss, dass die Parameterübergabe nich mehr geht wie früher, aber leichtfertig statt in /mnt/lfs in / chrootet und dann selbstverfreilich seinen Host zum hangup und anschliessend beim reboot zur kernelpanic verurteilt, dezent geschrottet :rolleyes:


    Die Litanei will ich nicht fortsetzen, ist zu lang und interessiert vermutlich keinen.


    Aber gibt es da draussen jemanden, der mit erklären kann, inwiefern es unsecure ist, die coreutils und _TAR_ als root zu bauen ? Insbesondere bei _TAR_ ??


    Naja, viel Gesabbel, noch n bisschen biegen hier und schubsen dort, dann wirds ne 1.7 geben.

    Anfangs nur mit dem Nachladen der vorbereiteten Buildscripte wie bisher und nur LFS.


    Ziel der Dev-Runde ist die Option laden der jeweiligen SVN-Build-Tarballs oder Downloads des Books (wenn ich mal wieder anderweitig beschäftigt bin und der Buildtarball nicht online ist z.B.) und die Generierung der Buildscripte direkt aus dem Book, auch für BLFS ( das wird sicher noch lustig und ne Weile dauern :gap )


    HJS

  • Ich wundere mich auch darüber, wie hoch der Aufwand ist, von Ubuntu 14.04 auf 18.04 umzustellen. :( .


    Generell ist die Empfehlung, nichts unter root zu bauen. Weil ein Fehler in einem der Tools, die zum Bauen verwendet werden, dann weniger kaputt machen kann.


    ~Markus

    Client1: ASUS P5QC, Dual Core 3G, Cine S2, Ext. Board von TBE, Xubuntu 20.04, VDR 2.6x

    Client2: RPI3

    Server: RPI4, Sundtek SkyTV Dual 2x

  • ..auf deinem ftp liegt noch eine komplette LFS stage1, die erst ein paar Wochen alt ist.

  • ..auf deinem ftp liegt noch eine komplette LFS stage1, die erst ein paar Wochen alt ist.

    kannste mal sehen, wie oft ich in Dein Verzeichnis auf Meinem Server schaue :gap


    Hatte auch gar nicht mehr damit gerechnet, dass Du noch mal n Upload machst.


    Hats dann also doch noch funktioniert - fein - Thx


    Die Version, die mal angekommen ist, hatte ich mir angesehen, aber mich dann doch entschieden, Zähne zusammen beissen und durch.


    Hatte leichte Probleme mit dem Handling und enweder alles händisch regeln oder n neues Script schreiben.


    Da ich ja letztlich gerne meinen Weg weiterfahren wollte, haben meine Kronen halt leiden müssen :gap


    Aber vielen Dank. Könnt ich ja debian nach dem nächsten Kollaps wieder wechwerfen und n schönes LFS nehmen :)


    Irgendwann zwischendurch hab ich denn auch mal erkannt, warum sowohl Du als auch jh den untar und rmsrc nicht in die Scripte packen. Als lfs kann das ziemlich nervig und nur mit hohem Aufwand automatisierbar werden.


    Den untar übernimmt weiterhin das Buildscript, den rmsrc macht das Masterscript, da bin und bleib ich root.


    Derzeit fahre ich den Host als lfs, den Rest zwangsweise als root : ich fands schon erstaunlich, das


    Code
    su - lfs -s <script>

    im Host klappt, im system dagegen nicht.


    Wie oben bereits erwähnt, werden die Fehlermeldungen i Ch6 immer rarer, der Weg zum vollständig einsatzfähigen Build ist nicht mehr weit.


    Dann noch ch7&8 abhaken und die nötigen tools ergänzen, um das Ding zur CD, mittlerweile wohl eher DVD zu machen, um auch wieder mal nen aktuellen Host anbieten zu können.


    HJS

  • >>warum sowohl Du als auch jh den untar und rmsrc nicht in die Scripte packen


    Na ja, ehrlich gesagt ist auch bei mir alles semi-automatisch. Ich habe ein kleines tool in c geschrieben, was die jeweils aktuelle html Seiten der LFS-dev per wget holt, parsed und bash scripte erstellt.

    Ich hab nochmal reingeschaut, auf dem server sollte ein komplettes LFS-dev vom Mai inklusive der build-scripte liegen (der Ordner 'bash_scripts'). Wenns bei irgendwo hakt, kannst du dort schmulen. ;)


    Die Scripte dort entpacken, patchen und bauen und räumen auf, so dass sich alles problemlos wiederholen lässt, wenn mal was schief läuft. Einige scripte sind von Hand editiert, wenn der Parser 'Mist' gebaut hat.


  • Na ja, ehrlich gesagt ist auch bei mir alles semi-automatisch. Ich habe ein kleines tool in c geschrieben, was die jeweils aktuelle html Seiten der LFS-dev per wget holt, parsed und bash scripte erstellt.

    Bin mittlerweile auf den tarball umgestiegen und bei mir machens halt die Herren sed, awk und die Dame grep :)


    Zitat

    Ich hab nochmal reingeschaut, auf dem server sollte ein komplettes LFS-dev vom Mai inklusive der build-scripte liegen (der Ordner 'bash_scripts'). Wenns bei irgendwo hakt, kannst du dort schmulen. ;)

    Immer sinnvoll. Thx :)

    Zitat

    Die Scripte dort entpacken, patchen und bauen und räumen auf, so dass sich alles problemlos wiederholen lässt, wenn mal was schief läuft. Einige scripte sind von Hand editiert, wenn der Parser 'Mist' gebaut hat.

    Leider stelle ich häufig fest, dass der Parser nur den Mist baut, den der Programmierer zulässt, bzw zwischen den Ohren hat :rolleyes:


    Abba weil sich das ja leider nicht immer vermeiden lässt, gedenke ich ja auch SVN-Tarballs weiterhin "im Sortiment" zu führen.


    Mal davon abgesehen, dass man keinen Parser auf die Änderungen der nächsten Jahre einstellen kann, das musste auch jh feststellen ( falls er noch gelegentlich drüber schaut, hat ja auch schon lange keine neue Version mehr rausgelassen, war abba ja bisher auch nicht nötig, seit libelf schon.


    Schön, dass Andere denn gleichen Weg gehen und auch straucheln, das beruhigt ungemein :) :gap


    HJS

  • Bin immer noch da, abba die Feldfrüchte wollen geerntet werden, wenn sie reif sind, danach ist nicht so sinnig :)


    Ich liebäugele gerade mit der Anschaffung eines neuen DEV Rechners, abba da brauch ich erst noch n paar Werte.


    Bis vor 2 Monaten hab ich nen i7-8700K als Favoriten, durch den angekündigten i9-9900K und die Produktionsengpässe seitens Intel ist dessen Preis aber ja spürbar hochgegangen.

    Gleichzeitig könnte man theoretisch den i9 für nen schlappen Hunni mehr kriegen, Dummerweise folgten den ersten vielversprechenden Berichten ja auch die Ernüchterung. Das Ding scheint die wieder verlötete Heatsink ja auch zwingend zu benötigen, um selbst bei regulärer Taktung nicht ständig kurz vor dem Grilltod bzw der Notabschaltung oder downstepping zu stehen.


    Da hab ich mir dann mal den Mitbewerb angesehen. Von allen möglichen RyZen scheint mir der Threadripper 1920 als TwelveCore bei regulär 3.5/4.0G sehr interessant, zumal die Dinger 4Way Interleave auf ihren RAMs fahren (können).


    Wäre nur sinnig, da keine Benchmarks für die Compilerarbeit zur Verfügung stehen ( zumindest finde ich keine, die sich auf C++ beziehen und Visual-irgendwas ist eher nicht relevant), jemanden zu finden, der son Ding ( und im Vergelich vielleicht n 8700K) im Einsatz hat und mal n Test fahren könnte ...


    Gibbet da draussen jemand, der nen Threadripper im Einsatz hat ?


    HJS

  • Entweder hat (noch) keiner nen Threadripper im Einsatz oder falsches Forum :rolleyes:


    Da AMD so freundlich war, die Preise für die erste Generation der TR zu halbieren, befindet sich ein 1920x für weniger als 400 Stutz im Zulauf.


    Mal gespannt, wie das abgeht ... :)


    HJS

  • Irgendwie ging das noch nicht so ab, nach ganzen 7 Tagen hat sich das Board verabschiedet,

    Nu muss in der Wartezeit bis das Ersatzboard da ist, halt der QC wieder ran.


    Werde wohl demnächst nen enen Thread eröffnen, mit der ersten 1.7er


    HJS

  • Sodele, zweites Gigabyte Board auch wieder retour. Hatte jetzt zweimal ein Gigabyte vor der Nase, NIE wieder, kostet einfach zuviel Nerven und Zeit.


    Man nehme ein ASRock, setze den kleinen Ripper ein, betätige den Einschalter und es löppt.


    Will Euch die Leidensgeschichte ersparen, es sei denn, jemand interessiert sich dafür :rolleyes:


    Mittlerweile hab ich tatsächlich ein laufendes HJSLFS mit 4.20.10 auf Basis des lfs-book-SVN vom 14.2. mit Default Zutaten (dhcpcd nano mc nebst DEPs)


    Noch ein paar Kinken beseitigen, die "Verwaltung" anpassen, dann isses endlich soweit.


    Erfreulich ist, dass das automatische Generieren der neuen Buildscripte aus dem LFS-Book mittlerweile ziemlich verlässlich ist,


    Auch die Buildscripte fürs BLFS sehne schon recht ordentlich aus - zumindest die "simplen" also Libs, Tools etc pp, nich gerade X Kde und Konsorten.


    Da die alten CDs nicht die Vorraussetzungen für den Build aus aktuellen Sourcen mitbringen, setze ich bis zum nächsten CD/DVD/USB Image Debian-9.4 als Host ein.


    Die 9.6 und 9.8-testing, jetzt Stable, haben zu merkwürdigen Fehlern geführt, die allerdings auch auf meinen Spielereien mit der Vcore des Rippers oder auf Speicher, der seine Spezifikationen nicht einhält, basieren können.


    Die Config eines X399 Boards mit "idealen" Werten ist eine Wissenschaft für sich, wenn man gerne die maximal mögliche Arbeits-Leistung mit möglichst geringer

    Verlust-Leistung haben will.


    Wens interessiert:

    - Ripper unter 2GHz takten is nich

    - Ripper auf 2GHz mit Vcore=850mV (865mV) löppt stable mit Tcpu um die 30° (lautlos) ca 40-45W

    - Ripper auf 4 GHz mit Vcore=1181.25mV (1225.0 mV) löppt stable mit Tcpu bis 65° bei 100% Dauerlast (dezentes Rauschen der Lüfter) ca 160-165W


    Alles, was nach 4GHz kommt, braucht deutlich mehr Spannung und fährt die TDP auf 220W und mehr und damit vermutlich auch die Tcpu über 68° (die Stelle, an der ich immer die Notbremse zieh), trotz Wasserkühlung.


    Hier wäre wohl ein aktiver Wärmetauscher nötig, aber mit erheblichem Aufwand 10% mehr Leistung zu erreichen, ist nicht wirklich sinnig.


    Falls der Speicher die Ursache für und-tschüss war, der erste Wert, falls nicht, der Wert in Klammern


    ASRock gibt in den defaults 1225 mV bei 3.5GHz vor, und bietet im "OC" 3.75 GHz auf 4 Cores bei Vcore=1375mV an. Eher Zweckfrei :rolleyes:


    Genuch gesabbelt/tippelt


    HJS

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!