Blog Archives

Avoid duplicates in bash history | bash history duplicates

19 december 2011
By


Sometimes when working, specially when writing and testing scripts, I have the need to work in the $SHELL and repeat the same commands over and over as a matter of fact if I check my $HISTORY for a command I find something like similar to :

 592 vim script.sh
593 chmod +x script.sh
594 ./script.sh
595 vim script.sh
596 ./script.sh
597 vim script.sh
598 ./script.sh
599 vim script.sh
600 ./script.sh
601 vim script.sh
602 ./script.sh
603 vim script.sh
604 ./script.sh
605 vim script.sh
606 ./script.sh
607 vim script.sh
608 ./script.sh
609 vim script.sh
610 ./script.sh
611 ./script.sh

I guess you got an idea as this comes from my work computer as Im deep in some serious scripting these days, not very handy nor very elegant either as everytime I need to search for a command I used a while back Im forced to grep through the results or use CTRL + r as I cannot force myself to use !! or something history command itself.

While looking for a solution for bash history duplicates I came came across a section of the bash man page that described exactly what I was looking for.

Add the following line to your .bashrc file so that the $SHELL will not keep in history duplicates of the same command as I did above :


 # User specific aliases and functions
export HISTCONTROL=erasedups:ignoredups 

So what this line does? Well ignoredups simply tells bash history to ignore duplicates, hence making $HISTORY nicer, while

Bron: TuxForge Lees het complete artikel hier: http://feedproxy.google.com/~r/Tuxforge/~3/4TTSp1IIq4M/

Bash script to create users

19 december 2011
By


Q: how can I create a script to create a number of users and assign them a standard password while forcing the user to change it at the first login?

A:There are basically two approaches to the above problem, one is using the list of users directly into the script itself while the other is using an external text file, lets see both approaches.

The first bash script will create users from a list embedded in the script itself, it has the advantage of being self contained so that you can just copy/paste it and change the list of users :

 #!/bin/bash
USERS=(user1 user2 user3 user4 user5 user6 user7)

for U in "${USERS[@]}"; do

useradd -m $U

echo $U"123" | passwd --stdin "$U"

chage -d 0 $U

done

The above script will create all users defined with $USERS variable together with an home folder, assign a standard password of username123 and finally set the password policy so that the user will be forced to change it on the first login.

The second bash script uses the same code as the one just seen the main difference is that it reads the list of users from a file named users.txt which can eventually be changed to anything you like, the main advantage of this version of the script is that you can easily run it multiple times with a different list of users any time :

 #!/bin/bash
 for U in `more users.txt`; do

useradd -m $U

echo $U"123" |

Bron: TuxForge Lees het complete artikel hier: http://feedproxy.google.com/~r/Tuxforge/~3/uVpD3biBbnM/

KVM

19 december 2011
By


When using KVM trying to start a virtual machine you could get the error KVM Failed to start domain $DOMAIN. Lets see what is causing this and how it can be resolved.

KVM Failed to start domain connection reset by peer

When you shut down a KVM host what happens behind the curtains is that libvirt daemon will try to save the state of the running virtual machine, DOMAIN, so that the next recovery/power on will be faster but this can lead to the Failed to start domain connection reset by peer problem, I personally have noted this behavior on more conservative distributions (namely my Red Hat Enterprise Linux 6.1 laptop) and my Scientific Linux 6.1 boxes but not on my Fedora workstations but cannot give this for granted of course.

The solution to the problem is easier than it seems and saved me lot of troubleshooting a few times already so if you are faced with the Failed to start domain connection reset by peer error try the following command which will reset the save state of the virtual machine and should bring back everything to normal :

 virsh managedsave-remove $DOM 

Now try to launch the virtual machine once again and it should start without any problem.

I hope you will find the the post useful and as usual please feel free to leave a comment or write me.

Cheers Lethe.

Incoming search terms:

Linux change the speed and duplex settings of an Ethernet card | linux change duplex settings

19 december 2011
By


Q: I need to change the speed and duplex settings for my network card, is this possible?

A: Under Linux you can use the built-in tool ethtool to display and change the duplex settings for your network card under Linux, depending on the NIC installed on your system you could try to use the mii-tool as well. In my experience ethtool works for most of the modern network cards so I will describe only the use of this tool

Install ethtool

Depending on your system ethtool could be already present and so you will be able to change duplex settings right away, in case it is not present you can easily install with the following command:

 yum install ethtool 

Or if you are using Debian or Ubuntu with the command :

 apt-get install ehtool 

Get information of duplex settings for network card

Once you have installed the tools of the trade is time to show test they are functioning, the syntax of the command is pretty straightforward all you have to do for a basic test is launch the command ethtool followed by the name of the interface for which we want to get information heres output for my eth0 interface :

 Settings for eth0:
Supported ports: [ TP MII ]
Supported link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Half 1000baseT/Full
Supports auto-negotiation: Yes
Advertised link modes: 10baseT/Half 10baseT/Full
100baseT/Half 100baseT/Full
1000baseT/Half 1000baseT/Full
Advertised pause frame

Bron: TuxForge Lees het complete artikel hier: http://feedproxy.google.com/~r/Tuxforge/~3/XgVpz7cZLmI/

Linux kill multiple process with a single command

19 december 2011
By


Sometimes it can be useful to kill multiple processes with a single command, while using a combination of ps and grep can help you hunt down the process you need and to kill it this is not the easiest or fastest approach if you need to kill a large number of processes. Lets see how to do this.

The first step would be getting a list of the interesting processes we need to kill, in this example I will use the NFS daemon, which can easily be accomplished with a command similar to the following :

 ps -ef | grep nfs 

The command on my system produced the following output :

 ps -ef | grep nfs
root 1873 2 0 08:50 ? 00:00:00 [nfsd4]
root 1874 2 0 08:50 ? 00:00:00 [nfsd4_callbacks]
root 1875 2 0 08:50 ? 00:00:00 [nfsd]
root 1876 2 0 08:50 ? 00:00:00 [nfsd]
root 1877 2 0 08:50 ? 00:00:00 [nfsd]
root 1878 2 0 08:50 ? 00:00:00 [nfsd]
root 1879 2 0 08:50 ? 00:00:00 [nfsd]
root 1880 2 0 08:50 ? 00:00:00 [nfsd]
root 1881 2 0 08:50 ? 00:00:00 [nfsd]
root 1882 2 0 08:50 ? 00:00:00 [nfsd]
root 4835 4554 0 18:43 pts/0 00:00:00 grep nfs

Ok we can see the full list of processes bound to NFS together with other information we actually dont need, what is really interesting for us is PID of the process which is exposed in the second column of the output so lets call

Bron: TuxForge Lees het complete artikel hier: http://feedproxy.google.com/~r/Tuxforge/~3/FYQY56J0ZDE/

Fedora 16 unable to start vsftpd

19 december 2011
By


*EDIT* As the Fedora project released an updated vsftpd package which fixes the described problem the article has become obsolete, I leave it in place just as a reference.

The default FTP server for the Fedora, and RHEL like distributions, is vsftpd which can be easily installed with the command :

 su -c 'yum install uvsftpd/u' 

Vsftpd is a feature rich FTP server and up to today it served all my needs but the version that ships with Fedora 16 has still an unresolved bug that makes starting and stopping the service awkward and in any case not as described in the official Fedora documentation.

Fedora 16 Start VSFTP

According to the official documentation once you have the vsftp package installed you should start the service with the command :

 systemctl start vsftpd.service 

When launching the command you will see a message like the following :


 Failed to issue method call: Unit vsftpd.service failed to load:
No such file or directory. See system logs and 'systemctl status vsftpd.service'
for details. 

While a patch to this problem is already available in the Fedora testing repository if you dont feel like messing with test updates you can easily solve the problem starting the service with the command :

 systemctl start vsftpd@vsftpd.service

Bron: TuxForge Lees het complete artikel hier: http://feedproxy.google.com/~r/Tuxforge/~3/guctjk8z-no/

Freelancer is zo slecht nog niet

16 december 2011
By

Freelance UNIX/Linux specialist

Expert van Computable voor de topics: Loopbaan en Open Source

Meer

In de praktijk zie ik regelmatig dat bedrijven die ict-personeel willen inhuren automatisch naar een detacheringsbureau stappen. Er wordt totaal niet bij stilgestaan dat er misschien betere mogelijkheden kunnen zijn, zoals een freelancer, zzper of npitter.



Wanneer je bij een detacheringsbureau aanklopt, dan moet je het doen met degene die je toegewezen wordt. Natuurlijk werken er goed opgeleide slimmeriken bij de diverse bureaus, maar er werken waarschijnlijk nog meer onervaren en minder vaardige mensen. Welke categorie is het meest beschikbaar, denk je? De goede naam van het bedrijf is geen garantie dat degene die over de vloer komt ook zelfstandig een dergelijke naam zou kunnen verdienen.

Productiviteit en kwaliteit


Juist in de ict-sector hebben de individuele kwaliteiten van de persoon een enorme impact op de productiviteit en kwaliteit van het opgeleverde werk. Iemand met de juiste kennis, benodigde ervaring en motivatie levert niet 10, maar eerder 500 procent sneller resultaat op. Door tweede keus in te huren (of dat nu een gedetacheerde is of een freelancer) loop je het risico jarenlang aan de erfenis van een slecht opgeleverd product vast te zitten, of het nu om een belabberd ingericht serverpark gaat of een het-werkt-maar-is-totaal-niet-te-onderhouden’ maatwerkapplicatie.

Ik denk dat de keuze voor een detacheringsbureau is gestoeld op een aantal aannames, die mijns inziens niet waar zijn:

Fabeltje 1: Een detacheringsbureau met een goede reputatie levert altijd goede mensen.
Niet iedereen op de detachering-loonlijst heeft dezelfde kennis, ervaring en kwaliteiten. Naast de altijd-bezette sterren aan wie het bedrijf de goede naam te danken heeft, zijn er hordes mindere goden en onervaren trainees die net de schoolbanken verlaten hebben. Enkele detacheringsbureaus gaan zelfs z ver dat ze de sterren

Bron: Computable Lees het complete artikel hier: http://www.computable.nl/artikel/ict_topics/beleid/4322796/2379250/freelancer-is-zo-slecht-nog-niet.html

‘Servervirtualisatie leidt tot uitdagingen’

9 december 2011
By

VMware meest favoriete servervirtualisatieplatform

Uit onderzoek van systeemintegrator Telindus-ISIT onder 445 it-professionals blijkt dat de top drie infrastructuuruitdagingen bij servervirtualisatie bestaat uit security (29 procent), storage (27 procent) en back-up/restore (12 procent). Telindus-ISIT vroeg de it-professionals tevens naar hun favoriete servervirtualisatieplatform. Dat is VMware.


Maar liefst 78 procent van de respondenten geeft de voorkeur aan VMware boven Citrix XenServer (13 procent) en Microsoft Hyper-V (9 procent). Jerry Rozeman, portfolio manager enterprise bij Telindus-ISIT, licht toe: ‘Het is goed dat it-professionals zich realiseren dat ze er nog niet zijn met alleen een standaard servervirtualisatieplatform. In de praktijk zien we dat beveiligingssoftware, met name virusscanners, de belangrijkste veroorzaker van prestatieproblemen is bij serverconsolidatie. Leveranciers spelen hier nu op in door de virusscan niet op de servers zelf te laten draaien, maar in de hypervisor-laag. Ook voor back-up/restore geldt dat men vaak vergeet dat de oude omgeving niet meer voldoet na een servervirtualisatieproject en dat essentile aanpassingen noodzakelijk zijn om geen performanceverlies te lijden. Deduplicatie bij de bron is hier de beste oplossing.’

Caching en deduplicatie

Jerry Rozeman, Telindus-ISIT


Om prestatieproblemen te voorkomen, is het belangrijk dat bedrijven de laatste technologien op storagegebied nauwlettend in de gaten houden, zo meent Rozeman.’Intelligenter omgaan met caching- en deduplicatietechnologie is een belangrijke ontwikkeling die we nu in de markt zien. De grootste valkuil bij servervirtualisatie is dat men verwacht dat het project klaar is met het overplaatsen van alle servers. Het simpel verplaatsen van de servers veroorzaakt echter een performance-nachtmerrie waar niemand in wil belanden. Het is daarom belangrijk om van tevoren naar oplossingen te kijken die met minder opslag toch een hogere performance weten te behalen.’

Bron: Computable Lees het complete artikel hier: http://www.computable.nl/artikel/ict_topics/virtualisatie/4310861/2333390/servervirtualisatie-leidt-tot-uitdagingen.html

Verkoop servers loopt terug door eurocrisis

8 december 2011
By

Oracle wist in de EMEA-regio meer servers te verkopen

De verkoop van servers in West-Europa is in het derde kwartaal van 2011 teruggelopen. Wereldwijd werden er wel meer servers verkocht, vooral in Noord-Amerika en Azi. HP en IBM leverden in de EMEA-regio marktaandeel in. Oracle, Dell, Cisco en Lenovo wisten meer marktaandeel te pakken. Dit meldt onderzoeksbureau IDC.


In de hele EMEA-regio (Europa, Midden-Oosten Afrika) groeide de servermarkt met 0,6 procent naar een omzet van 3,2 miljard dollar. Hierbij werden bijna 547.000 servers verkocht. Vooral in Polen, Rusland en Tsjechi waren nieuwe servers in trek.

In West-Europa viel de markt terug met 1,4 procent naar een omzet van 2,42 miljard dollar. West-Europa is goed voor 74,8 procent van de serververkoop in de EMEA-regio. Dat is het laagste percentage dat ooit is gehaald. Oorzaak ligt in de eurocrisis en de toenemende staatschulden van Europese landen.

In West-Europa wordt vaker gekozen voor nieuwe serverplatformen. Zo namen sommige it-afdelingen afscheid van hun Risc-, Itanium- en mainframesystemen. Daarvoor kochten ze nieuwe x86- en bladeservers.

Windows, Linux en Unix

Wereldwijd groeide de servermarkt in het derde kwartaal van 2011 met 4,2 procent naar een omzet van 12,74 miljard dollar. Het aantal verscheepte servers groeide met 8,7 procent maar 2,07 miljoen eenheden. Er werden vooral meer servers verkocht in Noord-Amerika en Azi.

In het derde kwartaal gebruikt 53,5 procent van de verkochte servers het Windows Server-platform. Microsoft verdiende hiermee 1,7 miljard dollar. Het aantal verkochte Windows Server-pakketten groeide met 3,7 procent. De verkoop van Linux-serversoftware groeide met 5,1 procent. De verkoop van Unix-software daalde met 3,7 procent.

ProLiant

HP ProLiant G7 servers

HP haalde in het derde kwartaal van 2011 een omzet van 1,31 miljard dollar en leidt de EMEA-markt met 40,5 procent. HP wist voor 1,1 miljard dollar aan ProLiant-servers te

Bron: Computable Lees het complete artikel hier: http://www.computable.nl/artikel/ict_topics/infrastructuur/4305297/2379248/verkoop-servers-loopt-terug-door-eurocrisis.html

Micro Focus helpt bij migratie PL/I-applicaties

8 december 2011
By

Bedrijven met PL/I-applicaties op IBM-mainframes geven naar schatting jaarlijks een miljard dollar teveel uit aan operationele kosten. Om deze kosten te verlagen, lanceert Micro Focus, specialist op het gebied van modernisering, testen en management van enterprise applicaties, Micro Focus Server Enterprise Edition for PL/I.



Het bestaande intellectuele eigendom in de PL/I-applicaties wordt met deze nieuwe aanpak behouden. Daarmee is dit de eerste complete, platformonafhankelijke migratieoplossing waarmee mainframe PL/I-applicaties vrijwel ongewijzigd van een IBM-mainframe naar een Linux-, Unix- of Windows Server-platform kunnen worden verplaatst.

Micro Focus Server Enterprise Edition for PL/I is de eerste aanpak die bedrijven een vrijwel risicoloos alternatief biedt voor het moderniseren van hun PL/I-applicatieportfolio. Met deze aanpak hoeven PL/I-applicaties met een uniek concurrentievoordeel niet meer herschreven, geconverteerd of vervangen te worden. De operationele kostenbesparing loopt daardoor op tot 70 procent. De continue modernisering van PL/I-applicaties kan worden bekostigd met een deel van die jaarlijkse besparing.

Micro Focus Server Enterprise Edition is volgens de leverancier het enige gentegreerde platformonafhankelijke migratieproduct voor PL/I-systemen dat momenteel op de markt is.

Bron: Computable Lees het complete artikel hier: http://www.computable.nl/artikel/ict_topics/beheer/4303156/1277800/micro-focus-helpt-bij-migratie-pliapplicaties.html