iscsiadm:没有find门户

我收到一个错误,说“跟踪新星Stderr:”iscsiadm:没有find门户。\ n'。跟踪nova命令:sudo nova-rootwrap iscsiadm -m节点-T iqn.2010-10.org.openstack:卷-00000003 – p:3260 –rescan

请让我知道如果需要更多的信息。 提前致谢。

更新:

有两台服务器
1.控制器节点(主机名:cc)
2.计算节点(主机名:nc)

操作系统: Ubuntu 12.04(无头)
Openstack风味: Essex

直到上周,我们的设置都很好。 但是,当我们想安装Ubuntu桌面从无头走出来,并获得一些美丽的屏幕,我们已经键入命令(在cc主机)

#sudo apt-get install ubuntu-desktop

然后,所有的问题都开始了。 我可以注意到,除了Apache,Openstack – dashboard和nova volume外,还没有任何事先通知或确认。 它甚至没有更新的东西。

所以我们所有的虚拟机实例都closures了

然后,当我运行#sudo nova-manage服务列表时,它用来显示XXX为nova-volume和nova-compute。 我们重新安装了nova-volume,它把状态从XXX改成:-)。

然后,我们尝试了所有我们知道的事情,比如重新安装apahce2,重新安装openstack-dashboard,apt-get update,apt-get upgrade,从mysql删除怀疑logging,删除lvm。

在此之后,我们可以如何让我们的OpenStack仪表板启动并运行。 所以现在,我们关心的是在服务列表中显示XXX的nova-compute服务。

尝试1:当我们使用start_guests_on_host_boot = false和resume_guests_state_on_host_boot = false更改nova.conf文件并重新启动cc主机时,在重新引导后显示:-)所有服务。 现在,当我检查仪表板,它显示状态为旋转旋转的所有vmsclosures。

尝试2:当我们使用start_guests_on_host_boot = true和resume_guests_state_on_host_boot = true更改nova.conf文件并重新启动cc主机时,它在重新引导后显示nova-compute服务的XXX。 当我们检查/var/log/nova/nova-compute.log文件时,显示错误如

iscsiadm: No portal found. \n'. Trace nova Command: sudo nova-rootwrap iscsiadm -m node -T iqn.2010-10.org.openstack: volume-0000003 -p: 3260 --rescan

修复了以上的事情:
1.将新标志中的两个标志更改为true。
2.执行#apt-get remove –purge iscsitarget
重新启动cc主机。
4.执行#/etc/init.d/opencscsi restart。
5.执行#sudo /etc/init.d/networking restart
6.执行#sudo服务ntp重新启动
7.执行#sudo服务tgt restart
8.执行#sudo nova-manage db sync
9.重新启动cc主机的nova-volume,nova-compute,nova-cert,nova-network,nova-scheduler,nova-consoleauth。

修复的结果:当我们运行下面的命令时,我们能够得到(我们之前没有得到这个)卷列表
#iscsiadm -m discovery -t sendtargets -p :3260
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000007
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000005
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000014
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000003
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-0000000f
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000013
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000004
CC_HOST_IP:3260, 1 iqn.2010-10.org.openstack: volume-00000008

而且所有的虚拟机都处于状态closures状态,微调器连续旋转一整天。 我们注意到,我们能够ping一些虚拟机,并使用MSTSC连接到它们。

而现在,我们在计算日志中没有看到Portal未find错误。 但是我们注意到下面的错误。

libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000017-lun-1: No such file or directory

而作为研发工作的一部分,我已经删除了(lvremove第17卷)与此相关的lvm。

当前状态:在cc主机上,获取错误

libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000017-lun-1: No such file or directory

在主机上,得到错误

libvirtError: Unable to allow access for disk path /dev/disk/by-path/ip-:3260-iscsi-iqn.2010-10.org.openstack:volume-00000020-lun-1: No such file or directory

input:
我们这里没有煤渣。 只有nova-volume,nova-compute,nova-cert,nova-network,nova-scheduler,nova-consoleauth。
2.服务的现状是

Binary Host Zone Status State Updated_At nova-network cc nova enabled :-) 2016-05-19 13:48:48
nova-compute cc nova enabled XXX 2016-05-19 11:37:23
nova-scheduler cc nova enabled :-) 2016-05-19 13:48:51
nova-volume cc nova enabled :-) 2016-05-19 13:48:48
nova-consoleauth cc nova enabled :-) 2016-05-19 13:48:50
nova-cert cc nova enabled :-) 2016-05-19 13:48:49
nova-compute nc nova enabled XXX 2016-05-19 11:37:13
nova-volume nc nova enabled :-) 2016-05-19 13:48:44

  1. 是的,tgt正在运行。 root@cc:/dev/disk/by-path# sudo service tgt status tgt start/running, process 2583

  2. configuration文件如下。
    cc主机上的 --dhcpbridge_flagfile=/etc/nova/nova.conf --my_ip= --dhcpbridge=/usr/bin/nova-dhcpbridge --logdir=/var/log/nova --debug = true --state_path=/var/lib/nova --lock_path=/run/lock/nova --allow_admin_api=true --use_deprecated_auth=false --auth_strategy=keystone --scheduler_driver=nova.scheduler.simple.SimpleScheduler --max_cores=106 --s3_host= --ec2_host= --rabbit_host= --cc_host= --nova_url=http://:8774/v1.1/ --routing_source_ip= --glance_api_servers=:9292 --image_service=nova.image.glance.GlanceImageService --iscsi_ip_prefix=192.168.4 --sql_connection=mysql://nova:nova@/nova --ec2_url=http://:8773/services/Cloud --keystone_ec2_url=http://:5000/v2.0/ec2tokens --api_paste_config=/etc/nova/api-paste.ini --libvirt_type=kvm --libvirt_use_virtio_for_bridges=true --start_guests_on_host_boot=true --resume_guests_state_on_host_boot=true --novnc_enabled=true --novncproxy_base_url=http://:6080/vnc_auto.html --vncserver_proxyclient_address= --vncserver_listen= --vncserver_listen=0.0.0.0 --network_manager=nova.network.manager.FlatDHCPManager --public_interface=eth0 --flat_interface=eth1 --flat_network_bridge=br100 --fixed_range=192.xxx.y.1/27 --floating_range=/27 --network_size=32 --flat_network_dhcp_start=192.xxx.y.33 --flat_injected=False --force_dhcp_release=True --iscsi_helper=tgtadm --connection_type=libvirt --root_helper=sudo nova-rootwrap --verbose :– --dhcpbridge_flagfile=/etc/nova/nova.conf --my_ip= --dhcpbridge=/usr/bin/nova-dhcpbridge --logdir=/var/log/nova --debug = true --state_path=/var/lib/nova --lock_path=/run/lock/nova --allow_admin_api=true --use_deprecated_auth=false --auth_strategy=keystone --scheduler_driver=nova.scheduler.simple.SimpleScheduler --max_cores=106 --s3_host= --ec2_host= --rabbit_host= --cc_host= --nova_url=http://:8774/v1.1/ --routing_source_ip= --glance_api_servers=:9292 --image_service=nova.image.glance.GlanceImageService --iscsi_ip_prefix=192.168.4 --sql_connection=mysql://nova:nova@/nova --ec2_url=http://:8773/services/Cloud --keystone_ec2_url=http://:5000/v2.0/ec2tokens --api_paste_config=/etc/nova/api-paste.ini --libvirt_type=kvm --libvirt_use_virtio_for_bridges=true --start_guests_on_host_boot=true --resume_guests_state_on_host_boot=true --novnc_enabled=true --novncproxy_base_url=http://:6080/vnc_auto.html --vncserver_proxyclient_address= --vncserver_listen= --vncserver_listen=0.0.0.0 --network_manager=nova.network.manager.FlatDHCPManager --public_interface=eth0 --flat_interface=eth1 --flat_network_bridge=br100 --fixed_range=192.xxx.y.1/27 --floating_range=/27 --network_size=32 --flat_network_dhcp_start=192.xxx.y.33 --flat_injected=False --force_dhcp_release=True --iscsi_helper=tgtadm --connection_type=libvirt --root_helper=sudo nova-rootwrap --verbose --dhcpbridge_flagfile=/etc/nova/nova.conf --my_ip= --dhcpbridge=/usr/bin/nova-dhcpbridge --logdir=/var/log/nova --debug = true --state_path=/var/lib/nova --lock_path=/run/lock/nova --allow_admin_api=true --use_deprecated_auth=false --auth_strategy=keystone --scheduler_driver=nova.scheduler.simple.SimpleScheduler --max_cores=106 --s3_host= --ec2_host= --rabbit_host= --cc_host= --nova_url=http://:8774/v1.1/ --routing_source_ip= --glance_api_servers=:9292 --image_service=nova.image.glance.GlanceImageService --iscsi_ip_prefix=192.168.4 --sql_connection=mysql://nova:nova@/nova --ec2_url=http://:8773/services/Cloud --keystone_ec2_url=http://:5000/v2.0/ec2tokens --api_paste_config=/etc/nova/api-paste.ini --libvirt_type=kvm --libvirt_use_virtio_for_bridges=true --start_guests_on_host_boot=true --resume_guests_state_on_host_boot=true --novnc_enabled=true --novncproxy_base_url=http://:6080/vnc_auto.html --vncserver_proxyclient_address= --vncserver_listen= --vncserver_listen=0.0.0.0 --network_manager=nova.network.manager.FlatDHCPManager --public_interface=eth0 --flat_interface=eth1 --flat_network_bridge=br100 --fixed_range=192.xxx.y.1/27 --floating_range=/27 --network_size=32 --flat_network_dhcp_start=192.xxx.y.33 --flat_injected=False --force_dhcp_release=True --iscsi_helper=tgtadm --connection_type=libvirt --root_helper=sudo nova-rootwrap --verbose

nc主机上的nova.conf:
--dhcpbridge_flagfile=/etc/nova/nova.conf --my_ip= --dhcpbridge=/usr/bin/nova-dhcpbridge --logdir=/var/log/nova --state_path=/var/lib/nova --lock_path=/run/lock/nova --allow_admin_api=true --use_deprecated_auth=false --auth_strategy=keystone --scheduler_driver=nova.scheduler.simple.SimpleScheduler --max_cores=106 --s3_host= --ec2_host= --rabbit_host= --cc_host= --nova_url=http://:8774/v1.1/ --routing_source_ip= --glance_api_servers=:9292 --image_service=nova.image.glance.GlanceImageService --iscsi_ip_prefix=192.xxx.y --sql_connection=mysql://nova:cyient#3@/nova --ec2_url=http://:8773/services/Cloud --keystone_ec2_url=http://:5000/v2.0/ec2tokens --api_paste_config=/etc/nova/api-paste.ini --libvirt_type=kvm --libvirt_use_virtio_for_bridges=true --start_guests_on_host_boot=true --resume_guests_state_on_host_boot=true --novnc_enabled=true --novncproxy_base_url=http://:6080/vnc_auto.html --vncserver_proxyclient_address= --vncserver_listen=0.0.0.0 --network_manager=nova.network.manager.FlatDHCPManager --public_interface=eth0 --flat_interface=eth1 --flat_network_bridge=br100 --fixed_range=192.xxx.y.1/27 --floating_range=/27 --network_size=32 --flat_network_dhcp_start=192.xxx.y.33 --flat_injected=false --force_dhcp_release=true --iscsi_helper=tgtadm --connection_type=libvirt --root_helper=sudo nova-rootwrap --verbose

更新 :通过下面解释的步骤得到了上述两个错误

  1. 在cc主机中,我做了标志start_guests_on_host_boot=falseresume_guests_state_on_host_boot
  2. 重新启动cc和nc主机。
  3. 重新启动后,所有nova服务显示:-)
  4. 从删除状态为1的mysql数据库中删除logging。
  5. 将每个mysql: update instances set vm_state='active', task_state = NULL, power_state = 1 where uuid = INSTANCE_UUID的状态更改为mysql: update instances set vm_state='active', task_state = NULL, power_state = 1 where uuid = INSTANCE_UUID
  6. 使用命令#nova reboot --hard INSTANCE_UUID每个#nova reboot --hard INSTANCE_UUID
  7. 这解决了我的问题,让我所有的虚拟机启动并运行。
  8. 将上面的两个布尔标志恢复为true并重新启动cc主机。
  9. 重启之后,所有nova服务都是:-) ,所有的虚拟机都启动并运行。