vim을 사용하다가 혹시 다음과 같은 오류가 발생한다면

E513: 쓰기 에러, 변환 실패 (무시하려면 'fenc'를 비우면 됨)
E513: write error conversion failed (make 'fenc' empty to override)

다음과 같이 해 보시기 바랍니다.

:set fenc=

= 기호를 생략하시면 안 됩니다. 다음과 같이 하셔도 같은 기능입니다.

:set fileencoding=



출처: https://woogyun.tistory.com/641 [살아가는 이야기]

 

vim에서 E513: 쓰기 에러 발생 시

vim을 사용하다가 혹시 다음과 같은 오류가 발생한다면 E513: 쓰기 에러, 변환 실패 (무시하려면 'fenc'를 비우면 됨) E513: write error conversion failed (make 'fenc' empty to override) 다음과 같이 해 보시..

woogyun.tistory.com

 

How can I change a file's encoding with vim?

 

:set encoding=utf-8

 

https://stackoverflow.com/questions/778069/how-can-i-change-a-files-encoding-with-vim

 

How can I change a file's encoding with vim?

I'm used to using vim to modify a file's line endings: $ file file file: ASCII text, with CRLF line terminators $ vim file :set ff=mac :wq $ file file file: ASCII text, with CR line terminators I...

stackoverflow.com

 

YAML 내용을 붙여넣기할 때 indent 수정

 

:set paste
:set nopaste

$ cat > filename.yaml
---Paste Contents---
Ctrl+D

https://stackoverflow.com/questions/2514445/turning-off-auto-indent-when-pasting-text-into-vim

 

Turning off auto indent when pasting text into vim

I am making the effort to learn Vim. When I paste code into my document from the clipboard, I get extra spaces at the start of each new line: line line line I know you can turn off auto in...

stackoverflow.com

https://www.lesstif.com/system-admin/vim-code-paste-auto-indent-6979764.html

 

vim 에서 code paste 할때 auto indent 방지

 

www.lesstif.com

 

'ETC' 카테고리의 다른 글

ATTO  (0) 2011.06.16
이 또한 지나가리라  (0) 2010.11.25
Only the Paranoid Survive - Andrew S. Grove  (0) 2009.11.17
휴브리스(hubris), 과거의 작은 성공을 잊어라  (0) 2009.11.17
가을인데,, 책읽기에 빠져 보심이...  (0) 2009.09.15

#!/bin/sh

HOSTLISTFILE="/usr/local/bin/hadoop"

#Error display function
Error_Show() {
 case "$1" in
  1) echo 'Usage: psh node[,node] command';;
  2) echo "psh::Hostlist file not exist";;
  *) echo 'psh:Unknown Error';;
 esac
 exit 1
}

[ "$#" -lt "2" ]&&Error_Show 1
[ ! -f "$HOSTLISTFILE" ]&&Error_Show 2

NODELIST=$(cat "$HOSTLISTFILE" | egrep $(echo $1 | sed "s/,/|/g") | awk '{print $1}')
shift
for NAME in $NODELIST
do
 ssh -q -x "$NAME" $* >&1 | sed "s/^/"`echo $NAME|cut -f 1 -d '.' | cut -c -15`:" /g"
done

BENCHMARK

'ETC' 카테고리의 다른 글

vim TIPs  (0) 2022.01.10
이 또한 지나가리라  (0) 2010.11.25
Only the Paranoid Survive - Andrew S. Grove  (0) 2009.11.17
휴브리스(hubris), 과거의 작은 성공을 잊어라  (0) 2009.11.17
가을인데,, 책읽기에 빠져 보심이...  (0) 2009.09.15
원문 : http://kerberosj.tistory.com/108
( younjin.jeong@gmail.com, 정윤진 )

"CHEF" 이건 모지?? 찾아봐야 겠다.

출처 : http://citylock.tistory.com/389


freens 가 VNC 보다 빠르고 안정적이다고 해서 설치해봤는데, 
설치까지 문제는 없었는데, 실행하는 순간 에러 발생 

Error Detail 메시지 

Info: Display running with pid '0' and handler '0x54'.

NXPROXY - Version 3.2.0

Copyright (C) 2001, 2007 NoMachine.
See http://www.nomachine.com/ for more information.

Info: Proxy running in client mode with pid '5828'.
Session: Starting session at 'Mon May 26 11:14:32 2008'.
Error: Can't determine the location of the X display socket.
Error: Error 2 'No such file or directory' checking '嗟????덝wE?w????/.X11-unix'.
Session: Session terminated at 'Mon May 26 11:14:32 2008'.

server: ubuntu 7.04 nxserver_3.2.0-7

client: Windows Vista nxclient-3.2.0-10


인터넷에 검색해보니 위와 같은 경우, 클라이언트 PC(XP 사용) 에서 호스트명, NW호스트명을 한글로 설정해서 발생하는 문제였다. 


그래서, 레지스트리 편집기(regedit)를 이용해서 수정하고 실행하니 연결 성공~ 


HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters 에서 

Hostname & NV Hostname 을 영문으로 수정



참고사이트 : http://cafe.naver.com/linuxcare.cafe?iframe_url=/ArticleRead.nhn%3Farticleid=24385


'Linux' 카테고리의 다른 글

psh script  (0) 2016.06.13
linux 백업/복구 후 selinux 처리  (0) 2010.10.14
Channel bonding  (0) 2010.10.11
Linux Backup & Restore  (0) 2010.08.02
[UDA] OS 자동설치 툴  (0) 2010.08.02
원격 병렬 명령에 사용하는 pdsh 설치 방법입니다.

http://www.wbitt.com/my-howtos/91-installing-pdsh-on-hpc-cluster.html

multi-thread 로 실행되기 때문에 빠르다고 합니다.
Rocks 에 들어있는 rocks run host 보다 좋은 듯.

pdsh, pdcp, rpdcp 등의 명령이 제공되고, 노드 선택할 때 유연성이 있습니다.

pdsh -w node[01-05] 'uptime'

범위를 설정하기 편하더군요..

참고 : http://linuxer.pe.kr/300

'Rocks' 카테고리의 다른 글

Rocks Command  (0) 2010.12.09
Adding a Login Appliance to Your Cluster  (0) 2010.12.09
Channel Bonding Interfaces  (0) 2010.12.09
Add roll on an existing server  (0) 2010.11.23
What you have to do after channel bonding  (0) 2010.10.19


Visual Block 사용
" CTRL-V and SHIFT-Insert are Paste
"map <C-V>  "+gP
map <S-Insert>  "+gP

"cmap <C-V>  <C-R>+
cmap <S-Insert>  <C-R>+

기본폰트 변경
"set guifont=Courier\ New
set guifont=Courier_New:h10

어두운 배경 사용
"set background=dark

colorscheme torte

가로세로 크기 지정
" GUI 이면, 시작시 크기, 위치 설정

if has("gui_running")
    set lines=25
    set co=100
"    winp 4 4
endif


공백 넣기
" 공백 넣기 mapping
"map <F2> j02i <Esc>
map <F2> :set nu<CR>
map <F3> :set nonu<CR>
map <F4> j04i <Esc>
map <F6> j06i <Esc>
map <F8> j08i <Esc>
map <F9> 0i#<Esc>wx
map ; o<Esc>

Rocks Command 중 특이한 명령이 있어 올려봅니다.
이미 있었는데,, 제가 좀 늦게 눈치챈 것도 있고, Rocks 5.4에서 추가된 것도 있습니다.

rocks add host bonded compute-0-0 channel=bond0 interface=eth0,eth1 ip=10.1.255.254 network=private
http://www.rocksclusters.org/roll-documentation/base/5.4/x1640.html#ROCKS-ADD-HOST-BONDED

rocks create mirror http://mirrors.kernel.org/contos/4.5/updates/i386/RPMS rollname=updates version=4.5
http://www.rocksclusters.org/roll-documentation/base/5.4/x3097.html#ROCKS-CREATE-MIRROR

rocks iterate host compute commnad="scp file %:/tmp/"
http://www.rocksclusters.org/roll-documentation/base/5.4/x3755.html

rocks open host console {host} [key=string] [vncflags=string]
http://www.rocksclusters.org/roll-documentation/base/5.4/x4603.html#ROCKS-OPEN-HOST-CONSOLE

rocks set host interface channel compute-0-0 iface=eth1 channel="bond0"
http://www.rocksclusters.org/roll-documentation/base/5.4/x6200.html#ROCKS-SET-HOST-INTERFACE-CHANNEL

rocks set host power action=on/off/install
http://www.rocksclusters.org/roll-documentation/base/5.4/x6200.html#ROCKS-SET-HOST-POWER

rocks swap host interface {host} [ifaces=string] [sync-config=boolean]
http://www.rocksclusters.org/roll-documentation/base/5.4/x7772.html

rocks update
http://www.rocksclusters.org/roll-documentation/base/5.4/x7861.html

'Rocks' 카테고리의 다른 글

Installing pdsh on HPC cluster  (0) 2010.12.15
Adding a Login Appliance to Your Cluster  (0) 2010.12.09
Channel Bonding Interfaces  (0) 2010.12.09
Add roll on an existing server  (0) 2010.11.23
What you have to do after channel bonding  (0) 2010.10.19

Rocks 5.4 에서 추가된 또 다른 기능입니다.
Login 노드를 추가할 수 있습니다.
예전에는 별도로 다운받거나 XML을 수정해서 Login 노드 타입을 설정할 수 있었지만,,
기본 기능으로 추가되었네요..

http://www.rocksclusters.org/roll-documentation/base/5.4/login-appliance.html


7.3. Adding a Login Appliance to Your Cluster

A login appliance is a host that users use to build, launch and monitor their application(s). This host is a subset of a frontend appliance (a frontend runs several other services that are used to install and maintain all the nodes in the system).

First, we need to perform the initial installation of the login appliance. On the frontend, execute:

# insert-ethers

Select "Login" as the appliance type.

Then PXE boot the host that you want to be a login appliance.

Login hosts are generally hosts that also have a public network interface so users can directly access the login host. After the login appliance installs, to configure the public network interface on the login host, see Adding a public IP address to the second ethernet adapter on a compute node.

7.3.1. Making any Host a Submission and/or Execution Host

If you've installed a batch queueing system (e.g., by using the SGE Roll or Torque Roll), you can change any host in your system to be a submission host (a host where users can submit jobs) and/or an execution host (the queueing system schedules jobs on execution hosts).

Note

By default, a login host is a submission host, but not an execution host. By default, a compute node is an execution host, but not a submission host.

To make a host a submission host (e.g., tile-0-0), on the frontend execute:

# rocks set host attr tile-0-0 submit_host true

Then reinstall tile-0-0.

To make a host an execution host (e.g., tile-0-0), on the frontend execute:

# rocks set host attr tile-0-0 exec_host true

Then reinstall tile-0-0.


'Rocks' 카테고리의 다른 글

Installing pdsh on HPC cluster  (0) 2010.12.15
Rocks Command  (0) 2010.12.09
Channel Bonding Interfaces  (0) 2010.12.09
Add roll on an existing server  (0) 2010.11.23
What you have to do after channel bonding  (0) 2010.10.19

Rocks Cluster 5.4에서 추가된 Channel Bonding 관련 내용입니다. 간단한 명령으로 채널 본딩을 구성할 수있게 되었네요..

http://www.rocksclusters.org/roll-documentation/base/5.4/bonding.html 

7.4. Channel Bonding Interfaces

Channel bonding enables two or more network interfaces to act as one. The following procedure describes how to channel bond interfaces in Rocks.

We'll use the example of channel bonding two interfaces for compute-0-1. First, let's list the current configuration of the interfaces for compute-0-1:

# rocks list host interface compute-0-1
SUBNET IFACE MAC IP NETMASK MODULE NAME VLAN OPTIONS
private eth0 00:1e:4f:b0:74:ef 10.1.255.253 255.255.0.0 tg3 compute-0-1 ---- -------
------- eth1 00:10:18:31:74:43 ------------ ----------- tg3 ----------- ---- -------

Here's what we'll do:

  • Bond eth0 and eth1.

  • Name the bonded channel "bond0".

  • Give bond0 the IP address 10.1.255.253.

  • Associate bond0 with the private network.

# rocks add host bonded compute-0-1 channel=bond0 interfaces=eth0,eth1 ip=10.1.255.253 network=private

The above command changes the interface configuraion for compute-0-1 in the following way:

# rocks list host interface compute-0-1
SUBNET IFACE MAC IP NETMASK MODULE NAME VLAN OPTIONS CHANNEL
private bond0 ----------------- 10.1.255.253 255.255.0.0 bonding compute-0-1 ---- ------- -------
------- eth0 00:1e:4f:b0:74:ef ------------ ----------- tg3 ----------- ---- ------- bond0
------- eth1 00:10:18:31:74:43 ------------ ----------- tg3 ----------- ---- ------- bond0

To apply the configuration, execute:

# rocks sync config
# rocks sync host network compute-0-1

7.4.1. Adding Parameters to the Kernel Bonding Module

There are several options that can be added to the kernel bonding module (see RedHat's documentation The Channel Bonding Module for a full description of all the options).

To set options "miimon=100" and "mode=balance-rr" for the kernel bonding module associated with bond0, execute:

# rocks set host interface options compute-0-1 bond0 options="miimon=100 mode=balance-rr"
Warning

The "options" value (e.g., "miimon=100 mode=balance-rr") must be a space-separated list.

And now we see:

SUBNET  IFACE MAC               IP           NETMASK     MODULE  NAME        VLAN OPTIONS                    CHANNEL
private bond0 ----------------- 10.1.255.253 255.255.0.0 bonding compute-0-1 ---- miimon=100 mode=balance-rr -------
------- eth0 00:1e:4f:b0:74:ef ------------ ----------- tg3 ----------- ---- -------------------------- bond0
------- eth1 00:10:18:31:74:43 ------------ ----------- tg3 ----------- ---- -------------------------- bond0

To apply the options to the bond0 interface, execute:

# rocks sync host network compute-0-1

'Rocks' 카테고리의 다른 글

Rocks Command  (0) 2010.12.09
Adding a Login Appliance to Your Cluster  (0) 2010.12.09
Add roll on an existing server  (0) 2010.11.23
What you have to do after channel bonding  (0) 2010.10.19
Dell Blade 성능이슈 및 해결 방법  (0) 2010.10.08
<이것 또한 지나가리라>

"이 또한 지나가리라!(Soon it shall also come to pass)"

유대인의 지혜서라는 <미드라시>에 이런 얘기가 있다.
이스라엘의 다윗 왕이 어느 날 궁중의 보석세공사를 불러 지시를 내렸다.
“내가 항상 지니고 다닐 만한 반지를 하나 만들고 그 반지에 글귀를 새겨 넣어라.
내가 전쟁에서 승리하거나 위대한 일을 이루었을 때
그 글귀를 보고 우쭐해 하지 않고 겸손해질 수 있어야 하며,
또한 견디기 힘든 절망에 빠졌을 때 용기를 주는 글귀여야 한다.”
세공사는 최선을 다해 최고의 반지를 만들었지만 고민에 빠지고 말았다.
어떤 글귀를 새겨야 다윗 왕의 마음에 들지 감을 잡을 수가 없었다.
고민을 하다가 지혜롭다는 솔로몬 왕자를 찾아가 조언을 구했다.
한참을 생각하던 솔로몬이 말했다.
“이렇게 써넣으세요. ‘이것 또한 지나가리라’.”

'ETC' 카테고리의 다른 글

vim TIPs  (0) 2022.01.10
ATTO  (0) 2011.06.16
Only the Paranoid Survive - Andrew S. Grove  (0) 2009.11.17
휴브리스(hubris), 과거의 작은 성공을 잊어라  (0) 2009.11.17
가을인데,, 책읽기에 빠져 보심이...  (0) 2009.09.15
이미 설치된 Cluster 에 Roll을 추가하는 방법입니다.
아래 설명은 Area51 매뉴얼이지만,, 대부분의 roll cd에 적용 가능합니다.

2.2. On an Existing Server

The area51 Roll may also be added onto an existing server (or frontend). For sake of discussion, assume that you have an iso image of the roll called area51.iso. The following procedure will install the Roll, and after the server reboots the Roll should be fully installed and configured.

$ su - root
# rocks add roll area51.iso
# rocks enable roll area51
# cd /export/rocks/install
# rocks create distro
# rocks run roll area51 | bash
# init 6

Rocks Cluster에서 Channel Bonding 구성을 하면 몇가지 문제가 생긴다.

1. 일반계정 홈디렉토리 마운트가 안됨
2. Job Submit 후 connection refused 에러
3. Ganglia 모니터링 안됨

Firewall 때문에 발생한 문제인데,,
Rocks에서는 Private Network 을 eth0로 고정되어 있다.
eth0로 되어 있는 부분을 몽땅 bond0로 바꿔줘야 문제가 안된다.

Frontend
/etc/sysconfig/iptables
/etc/sysconfig/static-routes

Compute
/etc/sysconfig/iptables
/etc/sysconfig/static-routes


'Rocks' 카테고리의 다른 글

Channel Bonding Interfaces  (0) 2010.12.09
Add roll on an existing server  (0) 2010.11.23
Dell Blade 성능이슈 및 해결 방법  (0) 2010.10.08
Install ofed, intel-developer, intel-icr without support roll  (0) 2010.09.20
Rocks+ 설치 주의사항  (0) 2010.09.18
selinux 가 활성화된 linux 시스템을 백업/복구 하게 되면 여러가지 에러메시지를 만나게 된다.
파일/디렉토리에 정의된 security 값이 바뀌기 때문..
  1. 해결하려면 먼저 부팅할 때 grub 메뉴에서 selinux=0 파라미터를 입력하여 부팅
  2. 부팅 후 fixfiles relabel 명령어 처리
이 외에도 여러가지 명령어를 사용할 수 있다

fixfiles
setfiles
restorecon


'Linux' 카테고리의 다른 글

psh script  (0) 2016.06.13
FreeNX 실행시 에러 - Error: Can't determine the location of the X display socket.  (0) 2011.01.27
Channel bonding  (0) 2010.10.11
Linux Backup & Restore  (0) 2010.08.02
[UDA] OS 자동설치 툴  (0) 2010.08.02
[root@redhat network-scripts]# cat ifcfg-bond0
DEVICE=bond0
ONBOOT=yes
BOOTPROTO=none
NETWORK=192.168.0.128
IPADDR=192.168.0.154
NETMASK=255.255.255.224
GATEWAY=192.168.0.129
USERCTL=no

[root@redhat network-scripts]# cat ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
USERCTL=no

[root@redhat network-scripts]# cat ifcfg-eth1
DEVICE=eth1
ONBOOT=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
USERCTL=no

[root@redhat network-scripts]# ifconfig
bond0     Link encap:Ethernet  HWaddr 00:10:18:00:95:E3
          inet addr:192.168.0.154  Bcast:192.168.0.159  Mask:255.255.255.224
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:11015965 errors:0 dropped:4 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 b)  TX bytes:1382772266 (1318.7 Mb)

eth0      Link encap:Ethernet  HWaddr 00:10:18:00:95:E3
          inet addr:192.168.0.154  Bcast:192.168.0.159  Mask:255.255.255.224
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:132884 errors:0 dropped:0 overruns:0 frame:0
          TX packets:5507979 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:9832436 (9.3 Mb)  TX bytes:2859931727 (2727.4 Mb)
          Interrupt:43 Memory:efff0000-f0000000

eth1      Link encap:Ethernet  HWaddr 00:10:18:00:95:E3
          inet addr:192.168.0.154  Bcast:192.168.0.159  Mask:255.255.255.224
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:10070086 errors:0 dropped:0 overruns:0 frame:0
          TX packets:5507979 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:1593187907 (1519.3 Mb)  TX bytes:2862573694 (2729.9 Mb)
          Interrupt:24 Memory:effe0000-efff0000

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:4425618 errors:0 dropped:0 overruns:0 frame:0
          TX packets:4425618 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:611116989 (582.8 Mb)  TX bytes:611116989 (582.8 Mb)

[root@redhat network-scripts]# cat /etc/modules.conf
alias parport_lowlevel parport_pc
alias scsi_hostadapter ips
alias usb-controller usb-ohci
alias bond0 bonding
alias eth0 bcm5700
alias eth1 bcm5700

[root@redhat network-scripts]# ethtool eth0
Settings for eth0:
        Supported ports: [ FIBRE ]
        Supported link modes:   1000baseT/Full
        Supports auto-negotiation: Yes
        Advertised link modes:  1000baseT/Full
        Advertised auto-negotiation: Yes
        Speed: 1000Mb/s
        Duplex: Full
        Port: FIBRE
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: on
        Supports Wake-on: d
        Wake-on: d
        Link detected: yes
[root@redhat network-scripts]# ethtool eth1
Settings for eth1:
        Supported ports: [ FIBRE ]
        Supported link modes:   1000baseT/Full
        Supports auto-negotiation: Yes
        Advertised link modes:  1000baseT/Full
        Advertised auto-negotiation: Yes
        Speed: 1000Mb/s
        Duplex: Full
        Port: FIBRE
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: on
        Supports Wake-on: d
        Wake-on: d
        Link detected: yes

Reference
http://anti1346.egloos.com/4695354

1. Bonding 개요

 

본딩이란 여러 개의 NIC를 논리적으로 하나로 묶어 NIC의 개수만큼의 대역폭을 확장하는 기술이다.

예를들어 100Mbps NIM 두 개를 묶어 200Mbps의 대역폭으로 구성 할 수 있다.

또한 NIC가 두 개이기 때문에 물리적인 경로 또한 두 개가 생긴다. 이것은 곧, 네트워크의 이중화라고

말 할 수 있다. 하나의 NIC 장애 시 남은 하나의 NIC로 통신이 가능하여 Fault It Tolerancedml 역할을 한다.

또한 두 개의 경로에서 패킷을 적절히 분배 할 수 있는 로드 밸런싱 기능까지 구현 할 수 있다.

 

2. 테스트 환경

 

- OS 커널 : 2.6.X 커널 사용

(

> Linux 2.6.x 커널에서는 Teaming이라는 용어 대신 bonding으로 바뀌었으면 2.4.x 커널에서 이용을

하려고 할 경우 ifenslave를 업데이트를 하거나 2.4.12 커널 이상으로 커널 컴파일을 실시하여야 한다.

> Ifenslave를 업데이트하여 사용을 할 경우 정상적으로 동작을 되지 않을 수 있으므로 2.6.x 의 버전을

설치하는 것을 추천한다.

)

- NIC 2

[root@byun named]# mii-tool

eth0: negotiated 100baseTx-FD flow-control, link ok

eth1: negotiated 100baseTx-FD flow-control, link ok

 

3. Bonding 구성

 

3-1. 네트워크 환경 구성 파일 설정

 

ifcfg-bond0  <= 추가 생성

vi /etc/sysconfig/network-scripts/ifcfg-bond0

DEVICE=bond0

ONBOOT=yes

BOOTPROTO=static

IPADDR=10.0.1.138

NETMASK=255.255.255.0

 

ifcfg-eth0 수정 및 생성

vi /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

USERCTL=no  <= root가 아닌 일반계정이 해당 인터페이스를 비활성화 가능 여부

MASTER=bond0

SLAVE=yes

BOOTPROTO=static

ONBOOT=yes

 

ifcfg-eth1 수정 및 생성

vi /etc/sysconfig/network-scripts/ifcfg-eth1

DEVICE=eth1

USERCTL=no

MASTER=bond0

SLAVE=yes

BOOTPROTO=static

ONBOOT=yes

 

network 수정 및 생성

vi /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=byun

GATEWAY=10.0.1.1

GATEDEV=bond0  <= 추가 사항

 

3-2. 모듈 구성

 

modprobe.conf bond 모듈 추가

vi /etc/modprobe.conf

alias eth0 e1000

alias eth1 e1000

alias scsi_hostadapter aic79xx

alias scsi_hostadapter1 ata_piix

alias usb-controller uhci-hcd

#

# bonding 추가

alias bond0 bonding

options bonding mode=6  <= bonding 방식 지정 : 6

options bond0 miimon=100  <= NIC Health 체크 시간(1/100 sec)

 

[Bonding 모드 종류]

 

0 : Balance-round robine 정책 : 첫 번째 가능한 슬레이브부터 마지막까지 순차적으로 전송한다. 이 모드는

부하분산과 장애 감내를 제공한다.

 

1 : Active-backup 정책 : bond에서 하나의 슬레이브만 활성화된다. 다른 슬레이브는 활성화된 슬레이브가  

fail 된 경우에만 활성화 된다.

 

2 : Balance-XOR 정책 : [(출발지 MAC 주소와 도착지 MAC 주소의 XOR) modula 슬레이브 1]에 기초하여

전송한다. 이것은 도착지 MAC 주소에 대해서 동일한 슬레이브를 선택하게 된다. 이 모드는 부하분산과 장

애감지를 제공한다.

 

3 : Broadcast 정책 : 모든 슬레이브 인터페이스에 모든 것을 전송한다. 이것은 장애감내를 제공한다.

 

4 : 802.3ad (link aggregation) - switch aggregation 그룹생성이 필요하다.

 

5 : transmit load 밸런스로써 보내는 패킷만 밸런스 한다.

 

6 : receive transmit패킷을 밸런스 한다. 이때 5,6 은 하나의 스위치에 있을때만 동작한다.

 

bonding 모듈 올리기

 

#modprobe bonding  <= 모듈 올리기

또는

# insmod /lib/modules/"uname -r'/kernel/drivers/net/bonding/bonding.kr miimon=1000 mode=6

 

insmod modprobe의 차이는 insmod 같은 경우에는 직접 모듈을 찾아 올려줘야하는 것이고 modprobe

그와 달리 알아서(의존성이 걸린 모듈까지 전부) 찾아서 올려주는 명령이다

 

모듈 확인 방법

 

# lsmod

[root@byun named]# lsmod | grep bonding  <= 모듈 확인

bonding                68840  0

 

네트워크 IP 주소 정보

 

# ifconfig 확인  => 모두 3개의 인터페이스가 활성화 되었으며 실제 인터페이스에서는

“SLAVE”라는 상태 정보가 생성되어 있다.

[root@byun named]# ifconfig

bond0     Link encap:Ethernet  HWaddr 00:0D:61:35:16:9C

          inet addr:10.0.1.138  Bcast:10.0.1.255  Mask:255.255.255.0

          inet6 addr: fe80::20d:61ff:fe35:169c/64 Scope:Link

          UP BROADCAST RUNNING MASTERMULTICAST  MTU:1500  Metric:1

          RX packets:72815 errors:0 dropped:0 overruns:0 frame:0

          TX packets:67823 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 txqueuelen:0

          RX bytes:6308545 (6.0 MiB)  TX bytes:25702842 (24.5 MiB)

 

eth0      Link encap:Ethernet  HWaddr 00:0D:61:35:16:9C

          UP BROADCAST RUNNING SLAVEMULTICAST  MTU:1500  Metric:1

          RX packets:44950 errors:0 dropped:0 overruns:0 frame:0

          TX packets:44091 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 txqueuelen:100

          RX bytes:3851533 (3.6 MiB)  TX bytes:24180496 (23.0 MiB)

 

eth1      Link encap:Ethernet  HWaddr 00:0D:61:35:16:9D

          UP BROADCAST RUNNING SLAVEMULTICAST  MTU:1500  Metric:1

          RX packets:27865 errors:0 dropped:0 overruns:0 frame:0

          TX packets:23732 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 txqueuelen:100

          RX bytes:2457012 (2.3 MiB)  TX bytes:1522346 (1.4 MiB)

 

lo        Link encap:Local Loopback

          inet addr:127.0.0.1  Mask:255.0.0.0

          inet6 addr: ::1/128 Scope:Host

          UP LOOPBACK RUNNING  MTU:16436  Metric:1

          RX packets:194 errors:0 dropped:0 overruns:0 frame:0

          TX packets:194 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 txqueuelen:0

          RX bytes:13022 (12.7 KiB)  TX bytes:13022 (12.7 KiB)

 

3-3 구성 상태 확인 및 검증

 

bond0 구동 현황 파악

[root@byun named]# cat /proc/net/bonding/bond0

Ethernet Channel Bonding Driver: v2.6.3-rh (June 8, 2005)  <= bonding 버전

 

Bonding Mode: adaptive load balancing  <= Bonding Mode

Primary Slave: None

Currently Active Slave: eth0              <= 현재 Active REAL NIC

MII Status: up                           <= Link 상태

MII Polling Interval (ms): 100             <= Fail 시 전환

Up Delay (ms): 0

Down Delay (ms): 0

 

Slave Interface: eth0

MII Status: up                           <= Link 상태

Link Failure Count: 0                     <= OS startup 이 후 Link Fail 건 수

Permanent HW addr: 00:0d:61:35:16:9c   <= MAC 주소

 

Slave Interface: eth1

MII Status: up

Link Failure Count: 0

Permanent HW addr: 00:0d:61:35:16:9d

 


RX / TX 패킷 확인하기

 

# cat /proc/net/dev (또는 /sbin/ifconfig 의 결과에서 RX/TX 패킷 비교)

                                                                                      (단위 : 패킷 양)

 

 

 

(행의 길이가 길어서 필요한 것만 옮겼음)

 

Inter-|                Receive                                         |           Transmit

 face|                 bytes                  packets             |bytes              packets

lo:                       13222                 198                    13222                198   

bond0:                8704648              99674                27088019           89807

eth0:                   5074179               58607                24916076           55252

eth1:                   3630469              41067                 2171943             34555 

sit0:                    0                         0                        0                       0

 

*)

RX : 받는 패킷(Receive)

TX : 보낸 패킷(Transmit)

-OK : 에러없이 받은 패킷

-ERR : 에러

-DRP : Drop

-OVR : Overrun

 

, 위의 결과는 RX / TX 패킷을 각각 eth0 eth1으로 거의 동일하게 분배해서 보내고 받음을 알 수 있다.

출처:bonding




http://ftth3.tistory.com/253



이번에 Dell Blade 에 Rocks+ 를 구성하면서 여러가지 많은 공부를 했습니다.
잊어먹기 전에 간단히 메모라도 해두어야죠..

  • IPMI 패스워드 설정
    • Rocks 문서에 보면, 파워 관리를 위해 IPMI를 사용하는 방법이 나와 있습니다.
    • 네트워크를 통해 관리하려면, IP를 입력하고, 네트워크 관리를 활성화 하고, 계정에 패스워드를 입력하여 활성화 시켜줘야 합니다.
    • 계정을 활성화할 경우 Dell Blade의 샤시 관리 모듈 (CMC)와 각 블레이드의 IPMI 모듈(iDRAC6)의 통신이 안된다는 군요.
    • 이 문제때문에 블레이드 서버가 관리 모듈에서 사라지는 문제를 겪었습니다.
    • 해결 방법은 패스워드를 설정하지 않는 것이죠...
    • default 계정으로 root/calvin을 사용하면 됩니다.
    • 참고 : Google 그룹스(Rocks Cluster)

  • Infiniband  연결방법
    • Blocking <-> Non-Blocking 구조가 있다고 합니다.
    • 총 16개의 블레이드가 장착되는데,, Infiniband 카드를 장착할 때 8대는 B위치에 나머지 8대는 C위치에 장착해야 하고,
    • Infiniband 스위치 모듈 또한 B위치/C위치에 각각 연결해야 합니다.

  • 블레이드 서버 MAC <--> 샤시 MAC 매칭
    • 이번에 이 기능을 보고 참 좋아졌구나 생각했습니다.
    • 블레이드 서버에 문제가 생겨서 보드를 교체할 경우 Onboard NIC의 MAC주소가 바뀌게 됩니다.
    • 이런 문제를 해결하기 위해 만들어진 것인지는 모르겠지만, Onboard NIC의 MAC주소를 샤시의 MAC 주소로 1:1 매핑시켜주는 기능이 있습니다.
    • 이 기능은 샤시 관리 모듈(CMC)의 Add-on 기능이며, 메모리를 꽂아서 활성화 시켜주어야 합니다.
    • 이 메모리는 샤시의 Service Tag를 기억하고 있으며, Service Tag가 다를 경우 동작하지 않습니다.

  • ifcfg-eth0 의 MAC 주소와 성능관계??
    • 이번 프로젝트의 최대 미스테리입니다.
    • 일반적으로 RedHat 계열 리눅스에서 네트워크 설정을 하면 /etc/sysconfig/network-scripts/ifcfg-eth0 안에 HWADDR=xx:xx:xx:xx:xx:xx 형태의 MAC을 기록하게 됩니다.
    • 이 항목을 주석처리하고 리부팅했는데 성능이 향상되었다?
    • 성능과 MAC주소와 무슨 관계가 있는지.. ??? 연구가 필요한 부분이네요..

왜 설치가 안됐을까 고민고민하다가 rocks 의 graphs 에 대해서 확인하고, 그 원인을 찾았습니다.
graphs 는 rocks 패키지 설치의 지도와 같습니다.
지도에 support 가 설치되어 있어야 설치가 된다고 연결이 되어 있더군요.



당연히 안되는 걸 가지고,, 한참을 헤맸네요..
그럼 해결 방법은 ??

support-client ==> client
support-server ==> server

로 연결 고리를 바꾸면 가능하지 않을까요? ㅎㅎㅎ

[root@rocks ~]# cd /export/rocks/install/rocks-dist/x86_64/build/graphs/default/
[root@rocks default]# cp ofed.xml intel-developer.xml intel-icr.xml /export/rocks/install/site-profiles/5.3/graphs/default/
[root@rocks default]# cd /export/rocks/install/site-profiles/5.3/graphs/default/

ofed.xml
FROM
<edge from="support-server">
  <to>ofed-server</to>
  <to>ofed-base</to>
  <to>ofed-prune-packages</to>
</edge>

<edge from="support-client" cond="ofed">
  <to>ofed-client</to>
  <to>ofed-base</to>
  <to>ofed-prune-packages</to>
</edge>

TO
<edge from="server">
  <to>ofed-server</to>
  <to>ofed-base</to>
  <to>ofed-prune-packages</to>
</edge>

<edge from="client" cond="ofed">
  <to>ofed-client</to>
  <to>ofed-base</to>
  <to>ofed-prune-packages</to>
</edge>


intel-developer.xml
FROM
<edge from="support-server" to="intel-developer-server"/>
<edge from="support-client" to="intel-developer-client"/>
<edge from="support-base"   to="intel-developer-base"/>

TO
<edge from="server" to="intel-developer-server"/>
<edge from="client" to="intel-developer-client"/>
<edge from="base"   to="intel-developer-base"/>


intel-icr.xml
FROM
<edge from="support-server">
<to>intel-icr-frontend</to>
</edge>

<edge from="support-client">
<to>intel-icr-client</to>
</edge>

TO
<edge from="server">
<to>intel-icr-frontend</to>
</edge>

<edge from="client">
<to>intel-icr-client</to>
</edge>

[root@rocks default]# cd /export/rocks/install/
[root@rocks install]# rocks create distro

'Rocks' 카테고리의 다른 글

What you have to do after channel bonding  (0) 2010.10.19
Dell Blade 성능이슈 및 해결 방법  (0) 2010.10.08
Rocks+ 설치 주의사항  (0) 2010.09.18
HPC Cluster 구성 툴의 다양화  (0) 2010.07.07
Rocks 5.4 발표 일정  (5) 2010.06.25
http://www.dell.com/Downloads/Global/Power/ps4q09-20100176-Gulbeden.pdf

Administrators can also use the command line for driver installation. The command msiexec /qn /i path, where path is the path to the WinOF MSI pack- age, enables driver installation through the command line; the MSI package can reside on a net- work share to help avoid the need to copy packages to individual cluster nodes.


The clusrun command enables running the same command on multiple compute nodes in parallel, which can help save a significant amount of time for driver installation in large clusters. The ndinstall command, which comes with the InfiniBand driver, can be used with the -i parameter to enable Network Direct after driver installation. When Network Direct is enabled, the ndinstall -l command lists the OpenIB Network Direct provider.


자동설치방법

msiexec /qn /i {PATH}


설치 후 Network Direct Enable

ndinstall -i


Network Direct provider 확인하는 방법

ndinstall -l

HPC Server 2008 R2 버전이 얼마전에 출시되었습니다.
Compute Node 자동 설치 중에 Product Key를 확인하는 과정에서 에러가 발생했습니다.
MS에서 제공된 Product Key였는데,, 설치 중에 계속해서 에러가 발생하더군요.
결국 해결 못해서,,
Compute Node Template 에서 Product Key를 삭제한 후 설치를 진행했습니다.
설치 완료 후 각 노드에 들어가서 Product Key를 입력했는데,, 잘 인식되더군요.
이건 무슨 문제인지....
아무래도 설치 프로세스 과정의 버그가 아닐까 싶습니다.
이 문제 때문에 반나절 허비했습니다.
유사 경우가 발생할 경우 고민하지 마시고, Product Key 삭제 후 설치하셈
얼마전 Cluster 를 구성하다가,, 한참을 헤맨적이 있습니다.
고객이 Infiniband 환경을 구성하고, Intel Compiler 설치를 요구해서,, 아래와 같은 Roll CD를 준비했죠.

base + ganglia + hpc + kernel + OS + sge + web-server : from http://www.rocksclusters.org
ofed + intel-developer + intel-icr : from http://www.clustercorp.com

이렇게 설치를 하니,, clustercorp 에서 가져온 Roll CD가 하나도 설치되지 않더군요.
그럼 모두 clustercorp 에서 가져온다면 ??

base + ganglia + hpc + kernel + sge + web-server : from http://www.clustercopr.com
CentOS 5.4 : from http://www.centos.org
ofed + intel-developer + intel-icr : from http://www.clustercorp.com

모두 clustercorp 에서 가져왔는데,, 설치가 되었을까요??
결과는 똑같습니다. ofed, intel-developer, intel-icr 모두 설치 안됩니다.

기존 구성과 다른 점을 찾아봤죠..
바로 바로,, clustercorp 에서 제공하는 support roll을 설치하지 않은 거죠..
support roll을 사용하지 않을 경우 clustercorp에서 가져온 roll은 모두 설치되지 않는다는 결론을 얻었습니다.
어디에 스크립트가 정의되어 있는지 찾아봤지만,, 꼭꼭 숨겨놓은 것 같네요..
혹시라도 발견하면 다시 포스팅하겠습니다.

'Linux' 카테고리의 다른 글

linux 백업/복구 후 selinux 처리  (0) 2010.10.14
Channel bonding  (0) 2010.10.11
[UDA] OS 자동설치 툴  (0) 2010.08.02
ssh 접속은 되는데, sftp 연결이 안되는 경우???  (0) 2009.11.20
[TIP] Shell Script  (0) 2009.07.01
어드민 생활을 하다보면,, "아~~ 이런 툴 있었으면 좋겠다" 생각해 본적이 여러번 있다.
이번에 요청 받은 건,, OS (Linux, VMware 등)를 Kickstart를 이용해 자동설치할 수 있게 해달라는 것이다.
물론,, DHCP, PXELinux, TFTP, NFS 를 구성하면 된다.
하지만,, 매뉴얼 찾아가며 설정하기란 여간 귀찮은 일이 아니다..
"아~~ 누가 자동설치 설정해주는 툴 안만들어 주나"
시간을 내 잠시 웹서핑
keyword : os deployment vmware
역시,, 친절하게도 이미 만들어져 있었다.. ㅎㅎ
이름하여 "Ultimate Deployment Appliance"

http://www.ultimatedeployment.org

가상머신으로 구성되어 있는데,,
다운받은 후 VMware에 붙인 후 부팅
-> 기본 구성정보 입력 (IP, Hostname, Password 등)
-> 웹브라우저를 열어서 입력한 IP로 접속
-> 스토리지 구성 : 설치할 OS 의 위치 파악 (CD-ROM 또는 ISO 파일도 사용 가능)
-> 설치할 OS 이미지 마운트
-> KickStart 설정
-> 끝

얼마나 간단한가!!!!!!
더군다나 Web Interface

한번쯤은 DHCP, PXELinux, TFTP, NFS 를 구성해서 자동설치를 구현해서 원리를 파악할 필요가 있지만,,
매번 귀찮은 작업을 반복하기 보다는 좋을 툴을 활용하는 것도 훌륭한 어드민이 아닐까??
암튼,, 이거 계속 잘 활용해야겠다..

'Linux' 카테고리의 다른 글

Channel bonding  (0) 2010.10.11
Linux Backup & Restore  (0) 2010.08.02
ssh 접속은 되는데, sftp 연결이 안되는 경우???  (0) 2009.11.20
[TIP] Shell Script  (0) 2009.07.01
Play Station 3 의 굴욕  (0) 2009.06.30


http://www.microsoft.com/hpc/en/us/community/hpc-forums-blogs.aspx#turnkey-dual-boot-clusters

http://ecn.channel9.msdn.com/o9/ch9/8/2/9/2/1/5/dualboot_ch9.wmv

Turnkey Dual-Boot Clusters: Clustercorp and Microsoft present Rocks+Hybrid, a simple Windows/Linux Cluster Solution

Clustercorp and Microsoft present Rocks+Hybrid – a combination of the commercial version of the Rocks® Cluster Distribution for Linux and Microsoft Windows® HPC Server 2008. The joint solution is a simple to use product for deploying dual-boot HPC systems that run Linux and Windows natively in a single cluster. In this webcast we'll discuss Rocks+Hybrid from both an end-user and architectural perspective -- attendees will come away with a new perspective on how easily they can make dual-boot clusters a part of their data center!

 

+ Recent posts