Территориально: север, северо-восток Москвы.
RSS как-то по отзывам не обнадеживает.
Неисправность - что-то с крышкой (монитор) - отошел угол у петли крепления к корпусу.
Территориально: север, северо-восток Москвы.
RSS как-то по отзывам не обнадеживает.
Неисправность - что-то с крышкой (монитор) - отошел угол у петли крепления к корпусу.
Приветствую Вас форумчане. Прошу помощи.
Есть шары на самбе. Сейчас они работают с доступом по IP клиентов.
Начальство хочет AD. Сейчас развернул для тестов новый сервер самбы. Воткнул его в AD. Доступ к шарам на тестовой самбе по пользователям или группам AD работает,
но перестал работать доступ по ip. При обращении к самбе по ip или имени (с ПК не в домене) сразу получаю отлуп, что нет сервера способного обработать запрос.
Настраивал с опцией securyty = ADS в глобале.
Но проблемма в том что есть компы на предприятии (например, ноутбуки начальства) которые никогда не будут включаться в домен, а доступ к шарам им нужен.
Вопрос. Можно ли как нибудь сделать смешанный режим безопасности? Т.е. с компов в домене авторизация по пользователям AD, а с компов вне домена по ip.
Пробовал тупо в секцию шары дописать и доступ по AD, и по ip. Не взлетело.
Кажется мне что это решаемая задача и кто-то такое уже использует. А вот я застрял и не могу решить такую проблемму.
Сильно не пинайте если что. Буду благодарен за любую помощь!
Centos8. Открываешь конфиг, пролистываешь, вначале фризит, затем разрывает соединение.
Centos7, провайдер тот же самый, работает корректно. Пинг одинаковый к обоим серверам.
Вчера, из другого офиса/провайдера, работало окей.
Сталкивался ли кто с таким, и как сию магию одолеть? Спасибо за ваши ответы.
Привет ребят в общем столкнулся с проблемой может подскажет кто решение есть VMware 6.0 ESXi поставил ClearOS поднял на нём интернет все нормально в VMware создал ещё 1 vSwitch как LAN сеть и добавил ClearOS еще 1 интерфейс для ЛВС , установил FreePBX Distro и Tiny Core и вот сама суть проблемы в чём на ClearOS DHCP работает они получили IPшники и пинг на друг друга проходит но вот интернета на них нету что делаю не так ? и что вам нужно показать для диагностики данной проблемы напишите пожалуйста все предоставлю.
Получаю Packets Transmitted ну и как правило 100% Loss
Привет, у меня хитрая плейбука.
Она должна работать с lxc контейнером, который не существует на момент запуска.
Первая задача это создание lxc контейнера, которая делигируется на localhost, затем хост созданного контейнера добавляется в инвентори и идет работа с самим контейнером
Примерно так:
- name: Create a started container
lxd_container:
name: "{{ lxc_name | default('test-container') }}"
state: started
source:
type: image
mode: pull
server: images.linuxcontainers.org
protocol: simplestreams
alias: ubuntu/xenial/amd64
profiles: ["test"]
wait_for_ipv4_addresses: true
timeout: 600
delegate_to: 127.0.0.1
- name: register container
add_host:
name: "{{ lxc_name | default('test-container') }}"
ansible_connection: lxd
-name: some task for container
.....
Как ее запустить, указав в инвентори хост, имя которого берется с переменной?
Столкнулся с такой проблемой при использовании динамической либы в Си. Допустим в библиотеке используется функция
uint16_t crc16_ccitt (const void *p, size_t size);
она используется исключительно внутри библиотеки в не объявлена в экспортируемых заголовочных файлах.
Если вдруг в приложении, где будет использоваться эта библиотека, есть функция с таким же именем, то из библиотеки вызывается именно эта пользовательская реализация… конкретно это я заметил исключительно потому, что у пользователя эта функция была объявлена как
uint16_t crc16_ccitt (size_t size, const void *p);
то есть параметры были поменяны местами и когда библиотека пыталась ее вызвать, приложение падало в segmentation fault.
Есть ли какой-то способ избежать таких эффектов и изолировать функции библиотеки от пользовательских функций с таким же именем, возможно, некоторая опция gcc?
Если нет, то как такую проблему решают в крупных проектах?
Библиотека собирается с такими опциями:
-fPIC -c -std=c11 -fplan9-extensions -Wall -Wno-unused-parameter -Wno-unused-variable -Wno-unused-function -Wno-format-zero-length
Подскажите, кто знает, такую вещь.
Есть сервер в сети с samba, есть centos 7 рабочие станции, которые монтируют с него шары. Монтирование осуществляется посредством systemd, вот таким вот юнитом:
mnt-public.mount
[Unit]
Description=cifs mount sсript
Requires=network-online.target
After=network-online.service
[Mount]
What=//10.67.124.1/public
Where=/mnt/public
Options=username=nobody@r05,password=1,sec=ntlm,noperm
Type=cifs
[Install]
WantedBy=multi-user.target
И всё это успешно работает, практически на всех станциях, но есть несколько «фирменных» машин HP, с которыми это не катит,
типа на момент выполнения монтирования - сети нет!
Dec 4 09:07:08 yar03 NetworkManager[886]: <info> [1575439628.3699] ifcfg-rh: new connection /etc/sysconfig/network-scripts/ifcfg-eno1 (724c5388-edce-48ca-a1bb-a55e5b50d61f,"eno1"
Dec 4 09:07:08 yar03 dbus[877]: [system] Activating via systemd: service name='org.freedesktop.hostname1' unit='dbus-org.freedesktop.hostname1.service'
Dec 4 09:07:08 yar03 dbus-daemon[877]: dbus[877]: [system] Activating via systemd: service name='org.freedesktop.hostname1' unit='dbus-org.freedesktop.hostname1.service'
Dec 4 09:07:08 yar03 systemd[1]: Starting Hostname Service...
Dec 4 09:07:09 yar03 dbus[877]: [system] Successfully activated service 'org.freedesktop.hostname1'
Dec 4 09:07:09 yar03 dbus-daemon[877]: dbus[877]: [system] Successfully activated service 'org.freedesktop.hostname1'
Dec 4 09:07:09 yar03 systemd[1]: Started Hostname Service.
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.2345] settings: hostname: using hostnamed
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.2346] settings: hostname changed from (none) to "yar03"
Dec 4 09:07:09 yar03 nm-dispatcher[986]: req:1 'hostname': new request (5 scripts)
Dec 4 09:07:09 yar03 nm-dispatcher[986]: req:1 'hostname': start running ordered scripts...
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5349] dhcp-init: Using DHCP client 'dhclient'
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5350] manager: rfkill: WiFi enabled by radio killswitch; enabled by state file
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5351] manager: rfkill: WWAN enabled by radio killswitch; enabled by state file
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5351] manager: Networking is enabled by state file
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5408] Loaded device plugin: NMBondDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5408] Loaded device plugin: NMBridgeDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5409] Loaded device plugin: NMDummyDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5409] Loaded device plugin: NMEthernetDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5409] Loaded device plugin: NMInfinibandDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5410] Loaded device plugin: NMIPTunnelDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5411] Loaded device plugin: NMMacsecDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.5411] Loaded device plugin: NMMacvlanDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.6952] Loaded device plugin: NMTunDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.6953] Loaded device plugin: NMVethDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.6953] Loaded device plugin: NMVlanDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.6954] Loaded device plugin: NMVxlanDeviceFactory (internal)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.8842] Loaded device plugin: NMWifiFactory (/usr/lib64/NetworkManager/libnm-device-plugin-wifi.so)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.8996] Loaded device plugin: NMTeamFactory (/usr/lib64/NetworkManager/libnm-device-plugin-team.so)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.9289] device (lo): link connected
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.9299] manager: (lo): new Generic device (/org/freedesktop/NetworkManager/Devices/1)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.9318] manager: (eno1): new Ethernet device (/org/freedesktop/NetworkManager/Devices/2)
Dec 4 09:07:09 yar03 NetworkManager[886]: <info> [1575439629.9334] device (eno1): state change: unmanaged -> unavailable (reason 'managed') [10 20 2]
Dec 4 09:07:09 yar03 kernel: IPv6: ADDRCONF(NETDEV_UP): eno1: link is not ready
Dec 4 09:07:10 yar03 kernel: IPv6: ADDRCONF(NETDEV_UP): eno1: link is not ready
Dec 4 09:07:15 yar03 NetworkManager[886]: <info> [1575439635.2754] manager: startup complete
Dec 4 09:07:15 yar03 systemd[1]: Started Network Manager Wait Online.
Dec 4 09:07:15 yar03 systemd[1]: Starting LSB: Bring up/down networking...
Dec 4 09:07:15 yar03 sssd[be[default]][954]: Backend is offline
Dec 4 09:07:15 yar03 network[1016]: Активируется интерфейс loopback: [ OK ]
Dec 4 09:07:15 yar03 NetworkManager[886]: <info> [1575439635.6892] audit: op="connection-activate" uuid="724c5388-edce-48ca-a1bb-a55e5b50d61f" name="eno1" result="fail" reason="No suitable device found for this connection."
Dec 4 09:07:15 yar03 network[1016]: Активируется интерфейс eno1: Ошибка: сбой активации соединения: No suitable device found for this connection.
Dec 4 09:07:15 yar03 network[1016]: [СБОЙ ]
Dec 4 09:07:15 yar03 systemd[1]: network.service: control process exited, code=exited status=1
Dec 4 09:07:15 yar03 systemd[1]: Failed to start LSB: Bring up/down networking.
Dec 4 09:07:15 yar03 systemd[1]: Unit network.service entered failed state.
Dec 4 09:07:15 yar03 systemd[1]: network.service failed.
Dec 4 09:07:15 yar03 systemd[1]: Reached target Network.
Типа нет устройства/сетевухи - eno1, соответственно шары не подключаются, хотя в юните же вроде прописано " After=network-online.service".
Dec 4 09:07:16 yar03 mount[1210]: mount error(101): Network is unreachable
Dec 4 09:07:16 yar03 mount[1210]: Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)
Dec 4 09:07:16 yar03 kernel: CIFS VFS: Error connecting to socket. Aborting operation.
Dec 4 09:07:16 yar03 kernel: CIFS VFS: cifs_mount failed w/return code = -101
Dec 4 09:07:16 yar03 mount[1202]: mount error(101): Network is unreachable
Dec 4 09:07:16 yar03 systemd[1]: mnt-public.mount mount process exited, code=exited status=32
Dec 4 09:07:16 yar03 systemd[1]: Failed to mount cifs mount sсript.
Dec 4 09:07:16 yar03 systemd[1]: Unit mnt-public.mount entered failed state.
Dec 4 09:07:16 yar03 systemd[1]: Started GNOME Display Manager.
...
Потом уже после загрузки «Гуя» нетворк-менеджер видит сетевуху и получает на неё дарес по dhcp, но юнит монтирования уже не запускается повторно..
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5204] device (eno1): link connected
Dec 4 09:07:30 yar03 kernel: e1000e: eno1 NIC Link is Up 100 Mbps Full Duplex, Flow Control: Rx/Tx
Dec 4 09:07:30 yar03 kernel: e1000e 0000:00:19.0 eno1: 10/100 speed: disabling TSO
Dec 4 09:07:30 yar03 kernel: IPv6: ADDRCONF(NETDEV_CHANGE): eno1: link becomes ready
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5210] device (eno1): state change: unavailable -> disconnected (reason 'carrier-changed') [20 30 40]
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5224] policy: auto-activating connection 'eno1'
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5320] device (eno1): Activation: starting connection 'eno1' (724c5388-edce-48ca-a1bb-a55e5b50d61f)
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5348] device (eno1): state change: disconnected -> prepare (reason 'none') [30 40 0]
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5364] manager: NetworkManager state is now CONNECTING
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5374] device (eno1): state change: prepare -> config (reason 'none') [40 50 0]
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5419] device (eno1): state change: config -> ip-config (reason 'none') [50 70 0]
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5428] dhcp4 (eno1): activation: beginning transaction (timeout in 45 seconds)
Dec 4 09:07:30 yar03 NetworkManager[886]: <info> [1575439650.5903] dhcp4 (eno1): dhclient started with pid 4123
Dec 4 09:07:30 yar03 dhclient[4123]: DHCPDISCOVER on eno1 to 255.255.255.255 port 67 interval 5 (xid=0x1f1867b8)
Dec 4 09:07:31 yar03 dhclient[4123]: DHCPREQUEST on eno1 to 255.255.255.255 port 67 (xid=0x1f1867b8)
Dec 4 09:07:31 yar03 dhclient[4123]: DHCPOFFER from 10.67.125.129
Dec 4 09:07:31 yar03 dhclient[4123]: DHCPACK from 10.67.125.129 (xid=0x1f1867b8)
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8049] dhcp4 (eno1): address 10.67.125.221
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8050] dhcp4 (eno1): plen 25 (255.255.255.128)
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8050] dhcp4 (eno1): gateway 10.67.125.129
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8050] dhcp4 (eno1): lease time 6000
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8051] dhcp4 (eno1): nameserver '10.67.12.134'
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8051] dhcp4 (eno1): nameserver '10.67.4.18'
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8051] dhcp4 (eno1): domain name 'r05.ru'
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8051] dhcp4 (eno1): state changed unknown -> bound
Dec 4 09:07:31 yar03 avahi-daemon[874]: Joining mDNS multicast group on interface eno1.IPv4 with address 10.67.125.221.
Dec 4 09:07:31 yar03 avahi-daemon[874]: New relevant interface eno1.IPv4 for mDNS.
Dec 4 09:07:31 yar03 avahi-daemon[874]: Registering new address record for 10.67.125.221 on eno1.IPv4.
Dec 4 09:07:31 yar03 dhclient[4123]: bound to 10.67.125.221 -- renewal in 2770 seconds.
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8087] device (eno1): state change: ip-config -> ip-check (reason 'none') [70 80 0]
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8102] device (eno1): state change: ip-check -> secondaries (reason 'none') [80 90 0]
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8119] device (eno1): state change: secondaries -> activated (reason 'none') [90 100 0]
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8122] manager: NetworkManager state is now CONNECTED_LOCAL
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8633] manager: NetworkManager state is now CONNECTED_SITE
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.8635] policy: set 'eno1' (eno1) as default for IPv4 routing and DNS
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.9390] device (eno1): Activation: successful, device activated.
Dec 4 09:07:31 yar03 dbus-daemon[877]: dbus[877]: [system] Activating via systemd: service name='org.freedesktop.nm_dispatcher' unit='dbus-org.freedesktop.nm-dispatcher.service'
Dec 4 09:07:31 yar03 dbus[877]: [system] Activating via systemd: service name='org.freedesktop.nm_dispatcher' unit='dbus-org.freedesktop.nm-dispatcher.service'
Dec 4 09:07:31 yar03 systemd[1]: Starting Network Manager sсript Dispatcher Service...
Dec 4 09:07:31 yar03 NetworkManager[886]: <info> [1575439651.9482] manager: NetworkManager state is now CONNECTED_GLOBAL
Dec 4 09:07:31 yar03 dbus-daemon[877]: dbus[877]: [system] Successfully activated service 'org.freedesktop.nm_dispatcher'
Dec 4 09:07:31 yar03 dbus[877]: [system] Successfully activated service 'org.freedesktop.nm_dispatcher'
Dec 4 09:07:31 yar03 nm-dispatcher[4135]: req:1 'up' [eno1]: new request (5 scripts)
Dec 4 09:07:31 yar03 nm-dispatcher[4135]: req:1 'up' [eno1]: start running ordered scripts...
Dec 4 09:07:31 yar03 nm-dispatcher[4135]: req:2 'connectivity-change': new request (5 scripts)
Dec 4 09:07:31 yar03 systemd[1]: Started Network Manager sсript Dispatcher Service.
Dec 4 09:07:31 yar03 systemd[1]: Unit iscsi.service cannot be reloaded because it is inactive.
Dec 4 09:07:32 yar03 nm-dispatcher[4135]: req:2 'connectivity-change': start running ordered scripts...
Собственно вопрос, как победить данную проблему? На не HP станциях в этой же сети с аналогичной версией ОС и настройкой - всё ОК.
И попутно вопросик, можно ли решить проблему перемонтирования шары при пропадании «сети» в рамках юнита монтирования? Т.е. комутатор выключили-включили, всё, шара отвалилась и пока не перезагрузишься, повторно она не перемонтируется при «возобновлении» физического линка.
Наткнулся на тест котоэмпатии, набрал 15/16, даже видео не смотрел, сходу понятно что с котейкой.
Потом почитал внимательно, только только 13% могут ответить правильно хотя бы на 75%, можете для статистики скинуть свои результаты, интересны взаимосвязи уровня эмпатии (пусть и к котам, так даже интереснее) и уровнем токсичностидоброжелательности в таком сообществе как здешнее.
https://catdogwelfare.wixsite.com/catfaces/cat-faces-interactive-quiz
Собственно, сабж. Официальных обновлений для 6-й Магейи больше не будет совсем.
Ибо 7-я Магейя вышла летом, а сейчас в котле уже 8-я Магейя.
Официальные слова маинтейнеров дистрибутива: https://blog.mageia.org/en/2019/12/02/mageia-6-end-of-life-time-to-upgrade/ .
В связи с тем, что я наконец могу вернуться на ЛОР, прошу разбанить мой аккаунт ( PerfectReactor)
Самозабанился до ввода правила о запрете временных самозабанов. Закон обратной силы не имеет?
Этот акк можно удалить.
Моё почтение.
Периодически почитывал данный ресурс и вот, наконец, решил зарегистрироваться. Чтобы, так сказать, не быть сторонним наблюдателем, а активным участником событий.
К сожалению, мои линукс-приключения остались в прошлом. Увы! За свою жизнь-карьеру я перепробовал множество дистрибутивов, последним из которых был CentOS 8 (Божественная Восьмерочка), но в итоге вернулся на… Windows 10 (Божественная Десяточка). В общем, от линукса решил отказаться.
Да, и к opensource отношение весьма прохладное. В быту и на профессиональном поприще стараюсь использовать преимущественно closed-source решения. Исключение делаю, разве что, для ffmpeg. Фабрис Беллар сделал превосходный продукт, надо отдать ему должное.
Однако, не смотря на столь печальный исход, считаю, что мои знания в области линукс могут кому-то пригодиться и я готов ими делиться. Ибо нехватка элементарных знаний у лоровских регистрантов, пятизвездночных или нет, зачастую бросается в глаза, причём, довольно сильно.
В общем, я искренне надеюсь, что мы подружимся и наше общение будет исключительно душевным, культурным и приятным.
Всем хорошего дня.
Свежая система:
И вот такая картинка в топе:
Прибить udisks2 конечно вариант, но он тянет за собой полсистемы.
Подскажите гуманный метод пожалуйста. Спасибо.
Подскажите кто разбирается, хочу для почтового сервера zimbra DKIM создать, читаю инструкцию, всё понятно до добавления DKIM в DNS, как я понимаю есть закрытый ключ и открытый ключ.
Я на zimbre выполняю след команду
$ /opt/zimbra/libexec/zmdkimkeyutil -a -d test.ru
Получаем
DKIM Data added to LDAP for domain test.ru with selector ECAC22D2-DCA2-11E6-BA30-B554729FE32A
Public signature to enter into DNS:
ECAC22D2-DCA2-11E6-BA30-B554729FE32B._domainkey IN TXT ( "v=DKIM1; k=rsa; "
"p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEAs5OCY0sX04ziF+sOHt/1kq3A7iAzAjBjb4JteaoFzu1q2uBOiQS0uyaFeY6CgSgRRbvPnq8cWLG/XMU0tM9gSGtgtWDmHOs6/+QgKp6zRmetfsyABA2Y2U+XJlVURUE5ai3KIA/njt7IGZ5yeFsdZIKmhOCAOPGCovq10xkZXHdjRwiqxbCYGXv2m3o74BcWtOLPfEvexD5PYx"
"aTWFbelJpGlDN7WdBCE+ObpLGkJ9co/1sVOcd3c9SHfPq3jcBAFm7oPX2ak7Fb7cslVK77lA2hBgMYqI2Sh+T64o6R33dU++Ej7CuImmv7PAqVUn5MjYr05t3LK9dwWM8Cm6aJ/QIDAQAA" ) ; ----- DKIM key ECAC22D2-DCA2-11E6-BA30-B554729FE32A for test.ru
В этот момент генерируется закрытый ключ и сервер начинает его добавлять к письму?
Далее я беру и вставляю в глобальный днс txt запись этот код:
"v=DKIM1; k=rsa; "
"p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEAs5OCY0sX04ziF+sOHt/1kq3A7iAzAjBjb4JteaoFzu1q2uBOiQS0uyaFeY6CgSgRRbvPnq8cWLG/XMU0tM9gSGtgtWDmHOs6/+QgKp6zRmetfsyABA2Y2U+XJlVURUE5ai3KIA/njt7IGZ5yeFsdZIKmhOCAOPGCovq10xkZXHdjRwiqxbCYGXv2m3o74BcWtOLPfEvexD5PYx"
"aTWFbelJpGlDN7WdBCE+ObpLGkJ9co/1sVOcd3c9SHfPq3jcBAFm7oPX2ak7Fb7cslVK77lA2hBgMYqI2Sh+T64o6R33dU++Ej7CuImmv7PAqVUn5MjYr05t3LK9dwWM8Cm6aJ/QIDAQAA"
Правильно ли я всё понял? Спасибо.
Имею задачу собрать данные по ключу proc.cpu.util от запущенных приложений по списку. Приложений может быть много и разных, поэтому пытаюсь их как-то автоматически обнаруживать. Придумал схему через discovery rule по макросам. Но получил проблему такого вида:
Есть шаблон с макросами вида
{$MyAPP1} => My-App1
Если написать ключ «руками» вида
Name: {$MyAPP1} blablabla
Key: proc.cpu.util[,appuser,,{$MyAPP1},]
Type: float
Если сделать точно такой же ключ в виде item prototype в правиле обнаружения в шаблоне, то правило отвалится с ошибкой «Unsupported item key», ключ соответственно не создастся.
ЧЯДНТ?
Недавно вышла новая версия Common Desktop Environment, решил накатить!
( читать дальше... )
>>> Просмотр
(1280x768,
118 Kb)
В общем что, наблюдаю такую картину:
root@vesta4:/home/nommaner# cat ~/iptables.rules
# Generated by iptables-save v1.6.0 on Tue Dec 3 07:07:45 2019
*filter
:INPUT DROP [74:5200]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [655:422309]
:f2b-sshd - [0:0]
:fail2ban-FTP - [0:0]
:fail2ban-MAIL - [0:0]
:fail2ban-SSH - [0:0]
:fail2ban-VESTA - [0:0]
:vesta - [0:0]
-A INPUT -i lo -j ACCEPT
-A INPUT -s 192.168.2.11/32 -j ACCEPT
-A INPUT -s 127.0.0.0/8 -j ACCEPT
-A INPUT -s 178.208.255.149/32 -p tcp -m multiport --dports 21,12000:12100 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 80,443 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 21,12000:12100 -j ACCEPT
-A INPUT -p udp -m udp --dport 53 -j ACCEPT
-A INPUT -p tcp -m tcp --dport 53 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 25,465,587,2525 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 3306,5432 -j ACCEPT
-A INPUT -p tcp -m tcp --dport 8083 -j ACCEPT
-A INPUT -p icmp -j ACCEPT
-A INPUT -p tcp -m tcp --dport 22 -j fail2ban-SSH
-A INPUT -p tcp -m multiport --dports 25,465,587,2525,110,995,143,993 -j fail2ban-MAIL
-A INPUT -p tcp -m tcp --dport 8083 -j fail2ban-VESTA
-A INPUT -p tcp -m tcp --dport 21 -j fail2ban-FTP
-A f2b-sshd -j RETURN
-A fail2ban-FTP -j RETURN
-A fail2ban-MAIL -s 46.38.144.179/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-MAIL -s 46.38.144.202/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-MAIL -s 92.118.38.55/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-MAIL -s 46.38.144.57/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-MAIL -j RETURN
-A fail2ban-SSH -s 159.65.146.250/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-SSH -s 80.211.180.203/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-SSH -s 222.186.175.202/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-SSH -s 222.186.173.215/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-SSH -s 185.232.67.6/32 -j REJECT --reject-with icmp-port-unreachable
-A fail2ban-SSH -j RETURN
-A fail2ban-VESTA -j RETURN
COMMIT
# Completed on Tue Dec 3 07:07:45 2019
Цепочка fail2ban завершается словом RETURN, при политике INPUT — DROP, это приводит к тому что вообще ничего не допускается по порту, который мониторится.
Делаю так:
root@vesta4:/home/nommaner# cat /etc/iptables.rules
# Generated by iptables-save v1.6.0 on Wed Dec 4 07:39:56 2019
*filter
:INPUT DROP [6:352]
:FORWARD ACCEPT [0:0]
:OUTPUT ACCEPT [161:94657]
:f2b-ProFTPD - [0:0]
:f2b-sshd - [0:0]
:fail2ban-FTP - [0:0]
:fail2ban-MAIL - [0:0]
:fail2ban-SSH - [0:0]
:fail2ban-VESTA - [0:0]
:vesta - [0:0]
-A INPUT -p tcp -m tcp --dport 8083 -j fail2ban-VESTA
-A INPUT -p tcp -m tcp --dport 22 -j fail2ban-SSH
-A INPUT -p tcp -m tcp --dport 21 -j f2b-ProFTPD
-A INPUT -p tcp -m multiport --dports 22 -j f2b-sshd
-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT
-A INPUT -i lo -j ACCEPT
-A INPUT -s 192.168.2.11/32 -j ACCEPT
-A INPUT -s 127.0.0.0/8 -j ACCEPT
-A INPUT -s 178.208.255.149/32 -p tcp -m multiport --dports 21,12000:12100 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 80,443 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 12000:12100 -j ACCEPT
-A INPUT -p udp -m udp --dport 53 -j ACCEPT
-A INPUT -p tcp -m tcp --dport 53 -j ACCEPT
-A INPUT -p tcp -m multiport --dports 3306,5432 -j ACCEPT
-A INPUT -p icmp -j ACCEPT
-A INPUT -p tcp -m multiport --dports 25,465,587,2525,110,995,143,993 -j fail2ban-MAIL
-A f2b-ProFTPD -j ACCEPT
-A f2b-sshd -j ACCEPT
-A fail2ban-FTP -j ACCEPT
-A fail2ban-SSH -j ACCEPT
-A fail2ban-VESTA -j ACCEPT
COMMIT
# Completed on Wed Dec 4 07:39:56 2019
И цепочка начинает работать как задумывалось, банит переборщиков паролей.
Но по умолчанию, после перезапуска fail2ban, оно снова встает на RETURN.
Что делать, я в растерянности, помогите.