Aus der Tiefe
   


About
Aus der Tiefe, Meldungen des Rechenzentrums in der Cauerstrasse 11

Matthias Bauer und Martin Bayer problems@math.fau.de

Subscribe
Subscribe to a syndicated feed of my weblog, brought to you by the wonders of RSS.

Flavours
There's more than one way to view this weblog; try these flavours on for size.

  • index
  • circa 1993
  • RSS
  • Links

  • Shoestring FoundationMiscellaneous byproducts

  •        
    Wed, 05 Nov 2014

    Wednesday, November 5, 2014 09:06:04


    	Panisch Backups in alle Richtungen gemacht, Umschwenk vermutlich am Freitag....
    	Damit das Zabbix seine backups machen kann, braucht es eine Erlaubnis.
    	  Weil SQL doof ist, geht das so:
    	    GRANT ALL ON ALL TABLES in schema public to zabbix;
    	Auf der QNAP kann man keine /etc/exports aus den configs erzeugen, weil die
    	  Lumpensaecke ein shared object (libuLinux_naspriv.so.2) nicht mit ausgeliefert haben.
    	  Sehr schlecht, wenn das der Fallback sein soll...
    	Das Postgres hat auf 24 CPUs 100% Last erzeugt und war dabei, den swap aufzufuellen.
    	  Unklar warum.
    	Auf der zabbix Datenbank im Postgress die grossen tables mit 
    	   SELECT INTO ... WHERE clock > ($grad_eben - 7*24*3600);
    	  wegkopiert (nur die Daten der letzten Woche), und dann mit TRUNCATE geloescht.
    	  hat mehr als 300 Gb Plattenplatz freigemacht.  Automatisiert muesste das so aussehen:
    
    	  # Vorher zabbix stoppen...
    	  tables="history history_uint history_str history_text history_sync history_text_sync \
    	          history_uint_sync" # weitere?
    	  now=`date +"%s"`
    	  for t in $tables; do
    		echo "SELECT * INTO ${t}_new FROM $t WHERE clock > $now - 7*24*3600;
    		      TRUNCATE TABLE $t;
    	 	      DROP TABLE $t;
    		      ALTER TABLE ${t}_new RENAME TO $t;" | psql -U zabbix $DBNAME
    	  done
    
    	  Evtl sollte man das in ein "BEGIN .. COMMIT" wickeln.
    
    

    [/bauerm] permanent link