Articles of linux

pipe理系统服务或单元需要身份validation。

每当试图以普通用户的身份停止/启动守护程序时,我都会遇到一个奇怪的问题,它会要求使用另一个常规用户的凭据进行身份validation – 例如: [bob@server ~]$ systemctl stop some-daemon.service ==== AUTHENTICATING FOR org.freedesktop.systemd1.manage-units === Authentication is required to manage system services or units. Authenticating as: alice Password: 为什么要求alice在boblogin时进行身份validation,以及如何解决这个问题?

是否可以重写一个systemd单元文件来创build一个模板单元文件?

我知道systemd提供了一个很好的机制来覆盖包提供的单元文件来影响服务configuration/行为。 这通常通过使用下面的命令完成 sudo systemctl edit <unitfile> 创build覆盖conf文件 /etc/systemd/system/<unitfile.d>/ Systemd还提供了一个单独的机制来定义一个模板单元文件,并将其实例化为在运行时创build特定于实例的单元。 这需要将模板文件命名为 <servicename>@.service 然后将其实例化为 systemctl start <servicename>@<instancename> 现在,我有一种情况,我想将包提供的服务作为多个单元实例运行。 我想避免创build自己的模板单元文件,所以我想看看是否可以重写包提供的单元文件来创build模板单元文件。 因为根据我的理解,模板单元文件的命名约定与常规单元文件不同,所以我认为我不能用模板文件将其放在/ etc / systemd / system中来覆盖软件包提供的单元文件。 有没有什么明确的方法来实现我想要做的? 具体场景:grafana包安装一个grafana-server.service单元文件。 我想在我的机器上运行grafana的两个实例 – DEV和STG各一个。 我已经能够做到这一点: 修改grafana-server.service文件(使用%I设置文件夹位置和文件path) 将修改后的grafana-server.service重命名为grafana-server @ .service 使用以下命令启动Grafana的实例: sudo systemctl start grafana-server@dev 和 sudo systemctl start grafana-server@stg 但是,这将从Grafana提供的服务单元文件中断开连接,如果在升级时增强了服务文件,则需要重新执行此活动。 我的目标是避免这种直接的依赖,而是将其转换为重写依赖。 有什么想法吗?

用于kerberos凭证cachingtypesMEMORY的用例?

MIT Kerberos提供的其中一种凭据cachingtypes是MEMORY 。 根据文件,它是由kadmin使用。 MEMORYcaching用于存储不需要在当前进程之外可用的凭证。 例如,kadmin使用内存ccache存储用于联系pipe理服务器的pipe理权证。 我已经尝试在/etc/krb5.conf设置default_ccache_name = MEMORY: 这样做之后,我发出了kinit命令,并进行了数据包捕获。 从这个捕获中我可以看到TGT成功地从KDC获得。 kinit程序结束后,这个票据(显然)就丢失了。 此外,看起来如果需要基于持久性内存的票据,可以使用KEYRING ccachetypes。 MEMORY凭证cachingtypes的其他用例是什么? 我假设这是从一个bash脚本例如没有用。 当脚本调用kinit它将会分叉,并且在完成时,获得的票证将不能被父母访问。 是否有可能包含一个kerberos头文件,以保持与其他逻辑相同的地址空间的门票?

Google Compute Engine在启动时不会调整磁盘的大小

根据谷歌的文件 : 如果您创build或调整根永久磁盘的大小或从映像或快照创build磁盘,则虚拟机实例可以在重新启动实例后自动调整分区的大小以识别额外的空间。 只要其支持的操作系统之一 CentOS 6 & CentOS 7 v20160418 or newer Yes. These images will automatically resize root partitions up to 2 TB. Even if the disk is larger than 2 TB, the operating system only recognizes up to 2 TB. 来源图片: centos-7-v20170523 但是,/ dev / sda1似乎没有被重新分区来占用额外的空间。 [redacted@redacted ~]$ sudo lsblk NAME MAJ:MIN RM […]

调整lvm2caching块大小

我在我的系统日志中看到以下消息: [ 6.774422] device-mapper: cache: You have created a cache device with a lot of individual cache blocks (1933312) All these mappings can consume a lot of kernel memory, and take some time to read/write. Please consider increasing the cache block size to reduce the overall cache block count. 但是,我无法find有关如何调整块大小而不禁用,重新创build和启用caching的文档… 这是正确的方式还是我错过了什么?

docker中的高山shell找不到文件

我已经build立了一个简单的docker集装箱与阿尔卑斯山和一个名为bowtie2的工具。 当我尝试运行bowtie2-align-s ,我得到这个错误: sh: ./bowtie2-align-s: not found 但是, ls告诉我该文件在那里。 我从Linux二进制发行版中安装了bowtie2。 我该如何判断该发行版是否与Alpine Linux兼容? 我在Ubuntu 16.04上运行Docker 17.09.0-ce。 以下是完整的Dockerfile: FROM alpine:3.6 ENV BOWTIE2_VERSION 2.2.8 RUN apk add –no-cache \ perl \ wget \ openssl \ ca-certificates \ strace \ && wget https://downloads.sourceforge.net/project/bowtie-bio/bowtie2/$BOWTIE2_VERSION/bowtie2-$BOWTIE2_VERSION-linux-x86_64.zip \ && unzip -d /usr/local bowtie2-$BOWTIE2_VERSION-linux-x86_64.zip \ && rm bowtie2-$BOWTIE2_VERSION-linux-x86_64.zip 我testing它是这样的: $ sudo docker run -it […]

用Hardy domU运行Xen Dapper dom0

是否可以在运行Dapper的现有Xen dom0上build立一个Hardy domU? 我发现很多post都在谈论相反的事情(在Hardy dom0上的Dapper domU),但是我已经用Dapper dom0和几个Dapper dom来设置了现有的服务器。 我需要build立一个新的domU,所以我想用一个更现代的LTS版本。 我很犹豫升级了dom0,就“如果没坏了,不解决”的原则。 有没有人试过这个? 我可以只使用2.6.24 Xen内核吗? 我是否需要重新编译domU内核以匹配我的dom0中的任何内容? 还是有必要升级dom0? 谢谢!

LDAP架构布局

我在Ubuntu上find了大量有关安装OpenLDAP的资源/教程,并且已经成功configuration了我的服务器(启动并运行并成功validation)。 我的问题涉及到如何设置架构,因为我似乎无法find任何有用的资源。 我也开始认为我正在尝试让LDAP做更多的事情,然后打算这样做,如果是这样,请随时指出。 这是我的情况: 3个服务器,每个用户(开发人员,实习生,客户,经理等)都具有各种具有LDAP能力的应用程序(每个类别主要是基于Web的),每类用户都需要访问所有应用程序的子集 我曾经想过要将每个用户分配给一些“angular色”,然后授予应用程序权限给angular色,而不是用户。 这样,当我添加新用户,我只需要分配一个angular色,而不是访问单个应用程序。 也就是说,如果我们添加了一个新的应用程序或决定一类用户应该有权访问某个现有的应用程序,那么只需要更新angular色,而不是每个用户。 这是一些我可以/应该做的LDAP,或者我应该看看一个替代,如桑巴?

如何防止gnome自动挂载分区?

我在我的硬盘上有一个分区,我希望用户能够挂载,但不应该是自动的,所以我把它放在我的/ etc / fstab中: /dev/sda5 /media/data vfat defaults,user,noauto 0 0 它对命令行非常有用。 分区只有在有人明确挂载时才能挂载。 但是,无论何时用户启动gnome,它都会自动挂载分区,即使fstab表示不会自动挂载。 我知道这几乎是一个GNOME设置,但我只是无法在gconf-editor中find它(它看起来太像Windows寄存器编辑器)。 任何人都可以帮我解决这个问题吗?

Postfix的最佳设置和优化VPS上的自定义传送脚本

所以我在Linode 1080 VPS上部署了Postfix + saslauthd + Courier-IMAP。 我们是一个小公司,我们有大约30个账户(为了方便+ Maildirs使用物理* nix用户,请参阅后面的内容),但是我们广泛使用Courier的共享文件夹(对于多个账户)使用自定义脚本I在Ruby中写道。 它通过Spamassassin过滤电子邮件,用一些规则读取YAML文件,然后执行几个检查,看看在我们的复杂结构中电子邮件的位置。 Maildirs和phyiscal用户为我提供了所需的灵活性。 邮件被接收,然后传递给我的脚本,该脚本在其主目录中的用户的.forward文件中定义。 总而言之,该脚本需要大约2秒钟才能完成。 现在,我们没有相对较高的电子邮件数量(我估计大约每小时30-50封电子邮件),但是我正在寻找方法加快速度,同时确保我们的电子邮件负载变得更高(或者我们发现“垃圾邮件风暴'),我们的服务器不会突然出现内存不足等问题。我的问题是: 在传递给我的脚本之前,通过spamassassin 守护进程 (而不是每次收到邮件时都会启动应用程序)来过滤电子邮件的方式是什么? 猜猜现在这样做是不好的做法。 有没有办法限制postfix同时传递给我的脚本的电子邮件数量? 我不想最终有10个脚本在同一时间运行。 我怎么能把我的脚本变成一个守护进程? 这会让事情变得更快吗? 提前致谢。 PS:电子邮件(以及/ home)存储在一个单独的XFS分区上,并挂载noatime。