• oracle 11g r2 rac +openfiler 2.99 +centos 6.5+vbox


     继上篇openfiler 2.99安装之后,这一篇讲介绍openfiler的存储配置和oracle 端的服务配置

    参考文档:https://www.oracle.com/technetwork/cn/articles/hunter-rac11gr2-iscsi-083834-zhs.html#11

    ip规划

    *20 rac01
    1.1.1.5 rac01-priv
    *22 rac01-vip
    *21 rac02
    1.1.1.6 rac02-priv
    *23 rac02-vip
    *24 scanvip01-ip
    #Private Storage Network for Openfiler-(eth1)
    *17 openfiler101
    1.1.1.7 openfiler101-priv

    登录网址10.15.7.14:446/

    --Services,启动iscsi target服务

    service里面启动iscsi target server,启动之后,下次启动会自动启动

    To enable the iSCSI service, click on the 'Enable' link under the 'iSCSI target server' service name. After that, the 'iSCSI target server' status should change to ' Enabled '.

    点击enabled

    service iscsi-target status

    --Network Access Configuration,只有配置了ip,才有权限访问openfiler存储

     

    --添加2rac节点的hostnameip

    --物理存储,Physical Storage

    --点击create new physical volumes

    现在我们来配置共享设备。先对我们没有格式的分区格式化成扩展分区,一定要扩展分区

    [root@localhost ~]# fdisk -l

    Disk /dev/sda: 42.9 GB, 42949672960 bytes

    255 heads, 63 sectors/track, 5221 cylinders, total 83886080 sectors

    Units = sectors of 1 * 512 = 512 bytes

    Sector size (logical/physical): 512 bytes / 512 bytes

    I/O size (minimum/optimal): 512 bytes / 512 bytes

    Disk identifier: 0x00071cd1

       Device Boot      Start         End      Blocks   Id  System

    /dev/sda1   *          63      208844      104391   83  Linux

    /dev/sda2          208845     4401809     2096482+  82  Linux swap / Solaris

    /dev/sda3         4401810     8594774     2096482+  83  Linux

    [root@localhost ~]# fdisk /dev/sda

    Command (m for help): n

    Command action

       e   extended

       p   primary partition (1-4)

    e

    Selected partition 4

    First sector (8594775-83886079, default 8594775):

    Using default value 8594775

    Last sector, +sectors or +size{K,M,G} (8594775-83886079, default 83886079):

    Using default value 83886079

    Command (m for help): w

    The partition table has been altered!

    Calling ioctl() to re-read partition table.

    WARNING: Re-reading the partition table failed with error 16: Device or resource busy.

    The kernel still uses the old table. The new table will be used at

    the next reboot or after you run partprobe(8) or kpartx(8)

    Syncing disks.

    [root@localhost ~]# fdisk -l

    Disk /dev/sda: 42.9 GB, 42949672960 bytes

    255 heads, 63 sectors/track, 5221 cylinders, total 83886080 sectors

    Units = sectors of 1 * 512 = 512 bytes

    Sector size (logical/physical): 512 bytes / 512 bytes

    I/O size (minimum/optimal): 512 bytes / 512 bytes

    Disk identifier: 0x00071cd1

       Device Boot      Start         End      Blocks   Id  System

    /dev/sda1   *          63      208844      104391   83  Linux

    /dev/sda2          208845     4401809     2096482+  82  Linux swap / Solaris

    /dev/sda3         4401810     8594774     2096482+  83  Linux

    /dev/sda4         8594775    83886079    37645652+   5  Extended

    格式化之后,我们在openfiler的网页中就能看到这个磁盘信息,如果不格式化,或者格式化错误,是无法编辑的。

     

    --点击/dev/sda

    --往下拉

    ==Create a partition in /dev/sda点击create 没有任何变化

    ==mode=logical

    ==partition type=physical volume

    --解决方法1

    手工分区create并创建卷组

    [root@localhost httpd]# fdisk /dev/sda

    Command (m for help): n

    First sector (8596823-83886079, default 8596823): ##enter

    Last sector, +sectors or +size{K,M,G} (73400320-83886079, default 83886079): ##enter

    Using default value 83886079

    Command (m for help): t

    Partition number (1-5): 5

    Hex code (type L to list codes): 8e

    Changed system type of partition 5 to 8e (Linux LVM)

    Command (m for help): w

    The partition table has been altered!

    Calling ioctl() to re-read partition table.

    WARNING: Re-reading the partition table failed with error 16: Device or resource busy.

    The kernel still uses the old table. The new table will be used at

    the next reboot or after you run partprobe(8) or kpartx(8)

    Syncing disks.

    [root@localhost ~]# fdisk -l

    Disk /dev/sda: 42.9 GB, 42949672960 bytes

    255 heads, 63 sectors/track, 5221 cylinders, total 83886080 sectors

    Units = sectors of 1 * 512 = 512 bytes

    Sector size (logical/physical): 512 bytes / 512 bytes

    I/O size (minimum/optimal): 512 bytes / 512 bytes

    Disk identifier: 0x00071cd1

       Device Boot      Start         End      Blocks   Id  System

    /dev/sda1   *          63      208844      104391   83  Linux

    /dev/sda2          208845     4401809     2096482+  82  Linux swap / Solaris

    /dev/sda3         4401810     8594774     2096482+  83  Linux

    /dev/sda4         8594775    83886079    37645652+   5  Extended

    /dev/sda5         8596823    83886079    37644628+  8e  Linux LVM

    [root@localhost httpd]# partprobe /dev/sda

    [root@localhost httpd]# pvcreate /dev/sda5

      Physical volume "/dev/sda5" successfully created

    [root@localhost httpd]# vgcreate vg_data /dev/sda5

      Volume group "vg_data" successfully created

    --解决方法2

    openfiler版本是2.99的,无法新增物理卷,点击Create 保存不了,把开始加大点,结束减少点就create了,也可以保存了

    #create

    --点击create把所有空间全部创建成一个分区,这个就是一个卷之后窗口会显示

     

    创建分区后

    --卷组管理

     

    --逻辑卷

    卷名 卷描述 所需空间 (MB) 文件系统类型

    racdb-crs1 racdb - ASM CRS Volume 1 2,208 iSCSI

    racdb-data1 racdb - ASM Data Volume 1 20480 iSCSI

    racdb-fra1 racdb - ASM FRA Volume 1 14072 iSCSI

    --crs

    --data

     

    --fra

    --3个逻辑卷创建完成

     

    --iSCSI 目标

    现在,我们有了三个 iSCSI 逻辑卷。但是,为了使 iSCSI 客户端可以访问这些逻辑卷,首先需要为这三个卷中的每个卷创建一个 iSCSI 目标。

    每个 iSCSI 逻辑卷将映射 到一个特定的 iSCSI 目标,并将为两个 Oracle RAC 节点授予对该目标的相应网络访问权限。

    对于本文,在 iSCSI 逻辑卷和 iSCSI 目标之间将会有一一映射的关系。

    创建和配置 iSCSI 目标的过程包括三步:创建一个唯一的目标 IQN(实质上是新的 iSCSI 目标的通用名称),

    将上一节中创建的一个 iSCSI 逻辑卷映射到新创建的 iSCSI 目标,最后,授予两个 Oracle RAC 节点访问该新 iSCSI 目标的权限。

    请注意,需要对上一节中创建的三个 iSCSI 逻辑卷中的每个卷都执行一次此过程。

    iSCSI 目标/逻辑卷映射

    目标 IQN iSCSI 卷名 卷描述

    iqn.2019-01.com.openfiler:racdb.crs1 racdb-crs1 racdb - ASM CRS Volume 1

    iqn.2019-01.com.openfiler:racdb.data1 racdb-data1 racdb - ASM Data Volume 1

    iqn.2019-01.com.openfiler:racdb.fra1 racdb-fra1 racdb - ASM FRA Volume 1

    现在我们来创建三个新的 iSCSI 目标 — 为每个 iSCSI 逻辑卷创建一个。下面举例说明通过创建 Oracle Clusterware/racdb-crs1 目标

    ( iqn.2019-01.com.openfiler:racdb.crs1) 来创建新的 iSCSI 目标时所需执行的三个步骤。

    这个三步过程需要对上表中列出的三个新 iSCSI 目标中的每一个都重复执行一遍。

    --创建新目标 IQN

    Openfiler Storage Control Center 中转到 [Volumes] / [iSCSI Targets]。确保选择了灰色子选项卡“Target Configuration”。

    您可在此选项卡页中创建一个新的 iSCSI 目标。系统会自动生成一个默认值,作为新 iSCSI 目标的名称(常称为“目标 IQN”)。

    目标 IQN 的一个示例是“iqn.2019-01.com.openfiler:tsn.7db44de9a62f”:

    我喜欢用更具含义的字串来替换这个默认目标 IQN 最后一段。对于第一个 iSCSI 目标(Oracle Clusterware/racdb-crs1),

    我将这样来修改默认的目标 IQN:将字符串“tsn.ae4683b67fd3”替换为“racdb.crs1

     

    --添加3

    对新的目标 IQN 满意之后,单击“Add”按钮。这将会创建一个新的 iSCSI 目标,然后会出现一个页面,

    您可以在该页面中修改新 iSCSI 目标的一系列设置。对于本文,无需更改新 iSCSI 目标的任何设置

    --LUN mapping

    创建新的 iSCSI 目标之后,下一步是将相应的 iSCSI 逻辑卷映射到该目标。在“Target Configuration”子选项卡下,

    验证在“Select iSCSI Target”部分中选择了正确的 iSCSI 目标。如果不是这样,使用下拉菜单选择正确的 iSCSI 目标,然后单击“Change”按钮。

    接下来,单击名为“LUN Mapping”的灰色子选项卡(在“Target Configuration”子选项卡旁)。找到相应的 iSCSI 逻辑卷

    (本例中为 /dev/vg_data/racdb-crs1),然后单击“Map”按钮。无需更改此页面中的任何设置。对卷 /dev/vg_data/racdb-crs1

    单击“Map”按钮后

     

    --mapping crs

    --mapping data

    --mapping fra

    --network acl

    需要先授予 iSCSI 客户端相应的权限,它才能访问新创建的 iSCSI 目标。在前面,我们已通过 Openfiler 对两个主机(Oracle RAC 节点)

    进行网络访问配置。这两个节点需要通过存储(专用)网络访问新的 iSCSI 目标。现在,我们需要授予这两个 Oracle RAC 节点访问新 iSCSI 目标的权限。

    ---crs

    --data

     

    --fra

    需要先授予 iSCSI 客户端相应的权限,它才能访问新创建的 iSCSI 目标。在前面,我们已通过 Openfiler 对两个主机(Oracle RAC 节点)

    进行网络访问配置。这两个节点需要通过存储(专用)网络访问新的 iSCSI 目标。现在,我们需要授予这两个 Oracle RAC 节点访问新 iSCSI 目标的权限。

    单击名为Network ACL”的灰色子选项卡(在“LUN Mapping”子选项卡旁)。对当前的 iSCSI 目标,将两个主机的“Access”值由“Deny”更改为“Allow”,然后单击“Update”按钮。

    返回到创建新的目标 IQN 一节,对其余两个 ISCSI 逻辑卷执行这三个任务,同时替换“iSCSI 目标/逻辑卷映射”表中找到的值。

    ###3个逻辑卷都要实现iqn,lun,acl的绑定

    至此,存储的服务端已经配置完成。在这一步,我们创建了一个逻辑卷然后与ISCSI target 进行了对应。客户端的服务器就通过这个ISCSI target进行连接。

    Openfiler target的配置文件是: /etc/ietd.conf

    [root@localhost ~]# cat /etc/ietd.conf

    #####   WARNING!!! - This configuration file generated by Openfiler. DO NOT MANUALLY EDIT.  #####  

    Target iqn.2019-01.com.openfiler:racdb.crs1

    HeaderDigest None

    DataDigest None

    MaxConnections 1

    InitialR2T Yes

    ImmediateData No

    MaxRecvDataSegmentLength 131072

    MaxXmitDataSegmentLength 131072

    MaxBurstLength 262144

    FirstBurstLength 262144

    DefaultTime2Wait 2

    DefaultTime2Retain 20

    MaxOutstandingR2T 8

    DataPDUInOrder Yes

    DataSequenceInOrder Yes

    ErrorRecoveryLevel 0

    Lun 0 Path=/dev/vg_data/racdb-crs1,Type=blockio,ScsiSN=zwDMca-iU5S-k2B2,ScsiId=zwDMca-iU5S-k2B2,IOMode=wt

    Target iqn.2019-01.com.openfiler:racdb.data1

    HeaderDigest None

    DataDigest None

    MaxConnections 1

    InitialR2T Yes

    ImmediateData No

    MaxRecvDataSegmentLength 131072

    MaxXmitDataSegmentLength 131072

    MaxBurstLength 262144

    FirstBurstLength 262144

    DefaultTime2Wait 2

    DefaultTime2Retain 20

    MaxOutstandingR2T 8

    DataPDUInOrder Yes

    DataSequenceInOrder Yes

    ErrorRecoveryLevel 0

    Lun 0 Path=/dev/vg_data/racdb-data1,Type=blockio,ScsiSN=W9fYp5-B2dk-HvqL,ScsiId=W9fYp5-B2dk-HvqL,IOMode=wt

    Target iqn.2019-01.com.openfiler:racdb.fra1

    HeaderDigest None

    DataDigest None

    MaxConnections 1

    InitialR2T Yes

    ImmediateData No

    MaxRecvDataSegmentLength 131072

    MaxXmitDataSegmentLength 131072

    MaxBurstLength 262144

    FirstBurstLength 262144

    DefaultTime2Wait 2

    DefaultTime2Retain 20

    MaxOutstandingR2T 8

    DataPDUInOrder Yes

    DataSequenceInOrder Yes

    ErrorRecoveryLevel 0

    Lun 0 Path=/dev/vg_data/racdb-fra1,Type=blockio,ScsiSN=XtaHfg-paMU-Xf3H,ScsiId=XtaHfg-paMU-Xf3H,IOMode=wt

    [root@localhost ~]# ll /dev/vg_data/

    total 0

    lrwxrwxrwx 1 root root 31 Apr  1 02:04 racdb-crs1 -> /dev/mapper/vg_data-racdb--crs1

    lrwxrwxrwx 1 root root 32 Apr  1 02:06 racdb-data1 -> /dev/mapper/vg_data-racdb--data1

    lrwxrwxrwx 1 root root 31 Apr  1 02:06 racdb-fra1 -> /dev/mapper/vg_data-racdb--fra1

    重启iscsi-target服务

    [root@localhost ~]# service iscsi-target restart

    Stopping iSCSI target service: ......                      [  OK  ]

    Starting iSCSI target service:                             [  OK  ]

    You have new mail in /var/spool/mail/root

    [root@openfiler01 ~]# service iscsi-target status

    ietd (pid 995) is running...

    [root@localhost ~]# cat /etc/sysconfig/network

    NETWORKING=yes

    HOSTNAME=openfiler01

    GATEWAY=10.15.4.1

    [root@openfiler01 ~]# lvscan

      ACTIVE            '/dev/vg_data/racdb-crs1' [2.16 GiB] inherit

      ACTIVE            '/dev/vg_data/racdb-data1' [20.00 GiB] inherit

      ACTIVE            '/dev/vg_data/racdb-fra1' [13.74 GiB] inherit

     oracle rac节点配置

    --Oracle RAC 节点上配置 iSCSI

    在集群中的两个 Oracle RAC 节点上配置 iSCSI 启动器。而创建分区只应在 RAC 集群的一个节点上执行。

    [root@rac01 ~]# rpm -qa --queryformat "%{NAME}-%{VERSION}-%{RELEASE} (%{ARCH}) "| grep iscsi-initiator-utils

    [root@rac01 ~]# ll /mnt/Packages/iscsi*

    -r--r--r--. 3 root root 702308 Nov 25  2013 /mnt/Packages/iscsi-initiator-utils-6.2.0.873-10.el6.x86_64.rpm

    [root@rac01 ~]# rpm -ivh /mnt/Packages/iscsi-initiator-utils-6.2.0.873-10.el6.x86_64.rpm

    Preparing...                ########################################### [100%]

       1:iscsi-initiator-utils  ########################################### [100%]

    [root@rac01 ~]# rpm -qa --queryformat "%{NAME}-%{VERSION}-%{RELEASE} (%{ARCH}) "| grep iscsi-initiator-utils

    iscsi-initiator-utils-6.2.0.873-10.el6 (x86_64)

    [root@rac02 ~]# rpm -qa | grep iscsi-initiator-utils

    iscsi-initiator-utils-6.2.0.873-10.el6.x86_64

    --配置 iSCSI(启动器)服务

    验证 iscsi-initiator-utils 程序包已经安装到两个 Oracle RAC 节点之后,启动 iscsid 服务,并使其在系统引导时自动启动。

    我们还将配置 iscsi 服务在系统启动时自动启动,自动登录到所需的 iSCSI 目标

    [root@rac01 ~]# service iscsid start

    [root@rac01 ~]# chkconfig iscsid on

    [root@rac01 ~]# chkconfig iscsi on

    现在 iSCSI 服务已经启动,下面使用 iscsiadm 命令行接口发现网络存储服务器上的所有可用目标。这应该在两个 Oracle RAC 节点上执行,以检验配置是否正常工作:

    [root@rac01 log]# iscsiadm -m discovery -t sendtargets -p *17

    [root@rac02 ~]# iscsiadm -m discovery -t sendtargets -p *17

    iscsiadm命令检查网络存储服务器上的所有可用目标:

    [root@rac01 log]# iscsiadm -m discovery -t sendtargets -p *17

    Starting iscsid:                                           [  OK  ]

    iscsiadm: No portals found

    [root@rac01 log]# service iscsid status

    iscsid (pid  7167) is running...

    --手动登录iSCSI目标

    此时,iSCSI 启动器服务已经启动,每个 Oracle RAC 节点都能够从网络存储服务器中发现可用目标。下一步是手动登录每个可用目标,

    这可以使用 iscsiadm 命令行接口完成。这需要在两个 Oracle RAC 节点上运行。注意,我必须指定网络存储服务器的 IP 地址而非其

    主机名 (openfilerl01) — 我认为必须这么做,因为上述发现使用 IP 地址显示目标。

    [root@racnode1 ~]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.fra1 -p *17 -l

    [root@racnode1 ~]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.data1 -p *17 -l

    [root@racnode1 ~]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.crs1 -p *17 -l

    -----2个节点上执行

    [root@rac01 log]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.fra1 -p *17 -l

    [root@rac01 log]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.data1 -p *17 -l

    [root@rac01 log]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.crs1 -p *17 -l

    -----

    --配置自动登录

    下一步是确保在计算机引导(或 iSCSI 启动器服务启动/重启)时,客户端将自动登录到上面列出的每个目标。

    如同上面描述的手动登录过程,在两个 Oracle RAC 节点上执行以下命令:

    [root@racnode1 ~]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.crs1 -p *17 --op update -n node.startup -v automatic

    [root@racnode1 ~]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.data1 -p *17 --op update -n node.startup -v automatic

    [root@racnode1 ~]# iscsiadm -m node -T iqn.2019-01.com.openfiler:racdb.fra1 -p *17 --op update -n node.startup -v automatic

    --创建永久性本地 SCSI 设备名称

    在本节中,我们将逐步为每个 iSCSI 目标名称创建永久性本地 SCSI 设备名称。我们将使用 udev 来完成该任务。拥有一致的本地 SCSI 设备名称及

    其映射到的 iSCSI 目标,有助于在配置 ASM 时能够区分三个卷。尽管并未严格要求这么做(因为我们将对所有卷使用 ASMLib 2.0),这提供了一种

    自我文档编制的方法,有助于快速确定每个 iSCSI 卷的名称和位置

    如果任一 Oracle RAC 节点引导并且 iSCSI 启动器服务启动,它会以一种随机的方式自动登录到配置的每个目标,并将这些目标映射到下一个可用

    的本地 SCSI 设备名称。例如,目标 qn.2019-01.com.openfiler:racdb.crs1 可能会映射到 /dev/sdb。实际上,我可以通过查看 /dev/disk/by-path

    目录来确定所有目标的当前映射:

    [root@rac01 log]# (cd /dev/disk/by-path; ls -l *openfiler* | awk '{FS=" "; print $9 " " $10 " " $11}')

    ip-*17:3260-iscsi-iqn.2019-01.com.openfiler:racdb.crs1-lun-0 -> ../../sdd

    ip-*17:3260-iscsi-iqn.2019-01.com.openfiler:racdb.data1-lun-0 -> ../../sdc

    ip-*17:3260-iscsi-iqn.2019-01.com.openfiler:racdb.fra1-lun-0 -> ../../sdb

    使用上述 ls 命令的输出结果,我们可以建立以下当前映射:

    iSCSI 目标名称 SCSI 设备名称

    iqn.2019-01.com.openfiler:racdb.crs1 /dev/sdd

    iqn.2019-01.com.openfiler:racdb.data1 /dev/sdc

    iqn.2019-01.com.openfiler:racdb.fra1 /dev/sdb

    但是,每次重新引导 Oracle RAC 节点时,该映射都可能有所不同。例如,重新引导之后,可能会决定将 iSCSI

    目标 iqn.2019-01.com.openfiler:racdb.crs1 映射到本地 SCSI 设备 /dev/sdc。由于您无法预测重新引导后的

    iSCSI 目标映射,依赖于使用本地 SCSI 设备名称是不现实的。

    第一步是创建一个新的规则文件。该文件将命名为 /etc/udev/rules.d/55-openiscsi.rules,并且只包含一行用于接收我们感兴趣事件的名称=值对。

    它还将定义一个调出 SHELL 脚本 (/etc/udev/scripts/iscsidev.sh),用于处理事件。

    在两个 Oracle RAC 节点上创建以下规则文件 /etc/udev/rules.d/55-openiscsi.rules

    [root@rac01 log]# vim /etc/udev/rules.d/55-openiscsi.rules

    [root@rac01 log]# more /etc/udev/rules.d/55-openiscsi.rules 

    # /etc/udev/rules.d/55-openiscsi.rules

    KERNEL=="sd*", BUS=="scsi", PROGRAM="/etc/udev/scripts/iscsidev.sh %b",SYMLINK+="iscsi/%c/part%n"

    现在,我们需要创建在接收该事件时将调用的 UNIX SHELL 脚本。我们首先在两个 Oracle RAC 节点上创建一个单独的目录,用于存储 udev 脚本:

    [root@rac01 log]# mkdir -p /etc/udev/scripts

    接下来,在两个 Oracle RAC 节点上创建 UNIX shell 脚本 /etc/udev/scripts/iscsidev.sh

    [root@rac01 log]# vim /etc/udev/scripts/iscsidev.sh 

    #!/bin/sh

    # FILE: /etc/udev/scripts/iscsidev.sh

    BUS=${1}

    HOST=${BUS%%:*}

    [ -e /sys/class/iscsi_host ] || exit 1

    file="/sys/class/iscsi_host/host${HOST}/device/session*/iscsi_session*/targetname"

    target_name=$(cat ${file})

    # This is not an open-scsi drive

    if [ -z "${target_name}" ]; then

       exit 1

    fi

    echo "${target_name##*.}"

    创建 UNIX SHELL 脚本后,将其更改为可执行文件:

    [root@rac01 log]# chmod 755 /etc/udev/scripts/iscsidev.sh

    既然已经配置了 udev,下面将在两个 Oracle RAC 节点上重新启动 iSCSI 服务

    [root@rac01 log]# service iscsi stop

    Stopping iscsi:                                            [  OK  ]

    [root@rac01 log]# service iscsi start

    Starting iscsi:                                            [  OK  ]

    [root@rac01 dev]# ls -l /dev/iscsi/*

    ls: cannot access /dev/iscsi/*: No such file or directory

    [root@rac01 dev]# ls /dev/disk/by-path -al

    total 0

    drwxr-xr-x 2 root root 200 Apr  1 16:12 .

    drwxr-xr-x 6 root root 120 Apr  1 14:29 ..

    lrwxrwxrwx 1 root root   9 Apr  1 16:12 ip-*17:3260-iscsi-iqn.2019-01.com.openfiler:racdb.crs1-lun-0 -> ../../sdb

    lrwxrwxrwx 1 root root   9 Apr  1 16:12 ip-*:3260-iscsi-iqn.2019-01.com.openfiler:racdb.data1-lun-0 -> ../../sdc 

    lrwxrwxrwx 1 root root   9 Apr  1 16:12 ip-*:3260-iscsi-iqn.2019-01.com.openfiler:racdb.fra1-lun-0 -> ../../sdd

    lrwxrwxrwx 1 root root   9 Apr  1 14:29 pci-0000:00:01.1-scsi-0:0:0:0 -> ../../sr0

    lrwxrwxrwx 1 root root   9 Apr  1 14:29 pci-0000:00:01.1-scsi-1:0:0:0 -> ../../sr1

    lrwxrwxrwx 1 root root   9 Apr  1 14:29 pci-0000:00:0d.0-scsi-0:0:0:0 -> ../../sda

    lrwxrwxrwx 1 root root  10 Apr  1 14:29 pci-0000:00:0d.0-scsi-0:0:0:0-part1 -> ../../sda1

    lrwxrwxrwx 1 root root  10 Apr  1 14:29 pci-0000:00:0d.0-scsi-0:0:0:0-part2 -> ../../sda2

    [root@rac01 dev]# more  /sys/class/iscsi_host/host17/device/session15/iscsi_session/session15/targetname 

    iqn.2019-01.com.openfiler:racdb.fra1

    --重新start iscsi服务后,发现这个脚本貌似没有起作用,跟官网搭建的文档有些出入

    [root@rac01 dev]# ls -l /dev/iscsi/*

    ls: cannot access /dev/iscsi/*: No such file or directory

    -----------这里使用udev绑定共享磁盘

    [root@rac01 dev]# for i in b c d ;

    > do

    > echo "KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`", NAME="asm-disk$i", OWNER="grid", GROUP="asmadmin", MODE="0660""      >> /etc/udev/rules.d/99-oracle-asmdevices.rules

    > done

    [root@rac01 dev]# cat /etc/udev/rules.d/99-oracle-asmdevices.rules

    KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45527a77444d63612d695535532d6b324232", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660"

    KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525739665970352d4232646b2d4876714c", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660"

    KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525874614866672d70614d552d58663348", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660"

    [root@rac01 dev]# ls -l /dev/iscsi/*

    ls: cannot access /dev/iscsi/*: No such file or directory

    [root@rac01 dev]# /sbin/start_udev

    Starting udev:                                             [  OK  ]

    [root@rac01 dev]# ls -l /dev/asm*

    brw-rw---- 1 grid asmadmin 8, 16 Apr  1 16:24 /dev/asm-diskb

    brw-rw---- 1 grid asmadmin 8, 32 Apr  1 16:24 /dev/asm-diskc

    brw-rw---- 1 grid asmadmin 8, 48 Apr  1 16:24 /dev/asm-diskd

    --后面就可以正常安装rac集群

    问题解决

    Openfiler2.99基于RHEL6定制,内核使用2.6.32,而且只提供x86_64位版本

    1. 安装过程中不能选用中文界面

    2. GPT分区支持不好

    3. web界面对大容量虚拟磁盘支持不好

    [root@rac01 ~]# service iscsid start

    [root@rac01 ~]# service iscsid status

    iscsid is stopped

    --直接iscsiadm 就可以启动iscsid ###https://blog.csdn.net/weixin_33739541/article/details/86196415

    iscsiadm: No portals found

    --注释掉/etc/initiators.deny文件中的内容

    [root@openfiler01 ~]# cat /etc/initiators.allow

    # PLEASE DO NOT MODIFY THIS CONFIGURATION FILE!

    # This configuration file was autogenerated

    # by Openfiler. Any manual changes will be overwritten

    # Generated at: Mon Apr 1 2:28:04 CST 2019

    iqn.2019-01.com.openfiler:racdb.crs1  *20/22, *21/22

    iqn.2019-01.com.openfiler:racdb.data1  *20/22, *21/22

    iqn.2019-01.com.openfiler:racdb.fra1  *20/22, *21/22

    # End of Openfiler configuration

    [root@openfiler01 ~]# cat /etc/initiators.deny

    # PLEASE DO NOT MODIFY THIS CONFIGURATION FILE!

    # This configuration file was autogenerated

    # by Openfiler. Any manual changes will be overwritten

    # Generated at: Mon Apr 1 2:28:04 CST 2019

    iqn.2019-01.com.openfiler:racdb.crs1 ALL

    iqn.2019-01.com.openfiler:racdb.data1 ALL

    iqn.2019-01.com.openfiler:racdb.fra1 ALL

    # End of Openfiler configuration

    --[root@rac01 dev]# ls -l /dev/iscsi/*

    ls: cannot access /dev/iscsi/*: No such file or directory

    https://community.oracle.com/message/10574362

    --后面安装rac就跟前几篇安装rac是一样的

  • 相关阅读:
    SQLyog连接MySQL8.0报2058错误的完美解决方法
    WPF之Binding深入探讨未参考
    C# SQLite 创建数据库的方法增删查改语法和命令
    winform实现INotifyPropertyChanged
    排序算法
    GitHub代码上传
    SQLyog
    Jenkins 部署 .NET MVC 项目
    Visual Studio 2019 代码规范
    C# SqlHelper类
  • 原文地址:https://www.cnblogs.com/yhq1314/p/10641391.html
Copyright © 2020-2023  润新知