Get Early Salary instant loan is up to 3 lakhs approved in minutes! Repay in 2 to 24 months, or prepay at no added costs! Min. salary Rs. 20,000 per month. Download the app now.
Треда поиском не нашёл.
!ъ: Кто-то перенёс все сервисы проекта Deuvan на протокол gopher. Вероятно это является первоапрельской шуткой.
Используем на beaglebone uart1 и uart2, оба открываем и посылаем команды на девайсы, подключенные к этим портам. Периодически отваливается beaglebone во время работы с портами. Если выдернуть девайсы, то отвисает и появляется возможность по ssh снова подключиться.
Можно ли как-то это побороть, почему периодически плата виснет при работе с двумя портами сразу ?
Добрый день, прошу совета как организовать процесс разработки, некоего компилируемого приложения, например на плюсах.
У приложения есть зависимости, которые нужно сохранить как для develop версии так и для production.
Develop версия должна еще содержать разные утилиты, такие как valgrind, dbg и т.п
1. Создаем общий образ:
FROM ubuntu
# установка gcc как пример некой зависимости для приложения
# в реальном проекте там будут библиотеки и т.п
RUN apt install gcc
билдим его:
docker build -t common_image .
2. Дальше нам нужен develop образ:
FROM common_image
# ставим утилиты для разработки
RUN apt install valgrind
В develop версии нам надо править исходный код, для этого нужно подключать тома, тут как я понял удобно использовать будет docker-compose:
# docker-compose.develop.yml
version: "3"
services:
develop:
build: ./develop
volumes:
- ./src:/src
Для разработки выполняем команду:
docker-compose -f docker-compose.develop.yml run -it develop bash
Попадаем в контейнер в котором можем пересобирать приложение и использовать отладочные утилиты.
3. Для релиза создаем production образ:
FROM common_image
# с хост машины копируем исходники в новый контейнер
COPY ./src ./src
# собираем приложение из исходников
# опускам моменты с созданием WORKDIR и прочего
RUN make
так же билдим этот контейнер:
docker build -t release_image .
Отправляем его на боевой сервер (или через push/pull) и там запускам с помощью docker-compose:
version: "3"
services:
develop:
image: release-image
command: ./run_app
volumes:
# тома для настроек
- ./settings:/settings
restart:
always
Оправдан ли такой способ? Сам с докером только начал разбираться поэтому прошу совета у опытных людей, заранее благодарен.
Если бы вы были студентом, чтобы вы сейчас начали изучать в качестве первого функционального языка? Эти два я выбрал из-за среды и библиотек, у одного языка на java, у другого на erlang.
xf86-video-nv-bug519261-increase-virtual.diff
Index: xf86-video-nv-2.1.14/src/g80_driver.c
===================================================================
--- xf86-video-nv-2.1.14/src/g80_driver.c
+++ xf86-video-nv-2.1.14/src/g80_driver.c
@@ -390,6 +390,22 @@ G80PreInit(ScrnInfoPtr pScrn, int flags)
/* Create the crtcs */
G80DispCreateCrtcs(pScrn);
+ /* Unless we're able to shrink/enlarge FB on the fly (GEM etc.), allocate
+ * large enough (TM) virtual size */
+ if ( (!pScrn->display->virtualX || !pScrn->display->virtualY) &&
+ ! (pNv->NoAccel || pNv->AccelMethod == EXA)) {
+ /* No need to accomodate for 3D buffers - no DRI anyway... */
+ if (2 * 1920*1920 * (pScrn->bitsPerPixel/8) <= pScrn->videoRam * 1024) {
+ /* Fits on 32MB and up */
+ pScrn->display->virtualX = 2 * 1920;
+ pScrn->display->virtualY = 1920;
+ } else if (2 * 1680*1280 * (pScrn->bitsPerPixel/8) <= pScrn->videoRam * 1024) {
+ /* Fits on 16MB and up */
+ pScrn->display->virtualX = 2 * 1680;
+ pScrn->display->virtualY = 1280;
+ }
+ }
+
/* We can grow the desktop if XAA is disabled */
if(!xf86InitialConfiguration(pScrn, pNv->NoAccel || pNv->AccelMethod == EXA)) {
xf86DrvMsg(pScrn->scrnIndex, X_ERROR,
Это драйвер без поддержки 3D-ускорения. В комментариях к коду написано: «так как мы не можем изменить разрешение фреймбуфера „на лету“, то увеличиваем максимальное разрешение». И чуть дальше «так как драйвер всё равно не поддерживает DRI, то увеличиваем количество памяти для вывода изображения»
Так вот. Тут у Эфириума растёт DAG, через неделю он будет иметь размер 4 Гб, и поэтому 4-гиговые GPU «пролетают». ethminer мне говорит, что осталось 8 Мб свободно (в течение месяца он сообщал 30, 20, 15 и т.д.). Можно ли пропатчить fglrx так, чтобы он картинку выводит в 640x480, а для OpenCL дал больше памяти? Если удастся получить хотя бы 30 Мб, то это майнинг ещё в течение месяца
Короче я пишу софтину на Qt (С++) которая удобно монтирует cifs(samba) и sftp(через sshfs), что-то наподобие Gigolo. И пытаюсь адекватно сделать так, чтоб пароль для операций монтирования/размонтирования спрашивался всего один раз при первой операции или вообще при входе (т.к. PAM все дела, автоанлок кейринга). Так-же конечно желательно чтоб это не оказалось дырой.
Я рассмотрел 3 варианта:
- sudo + keyring + mount - многие говорят, что так не стоит (т.к. там и таймауты и дырявое оно) и такие вещи может вызвать только пользователь в группе wheel (если конечно в конфиге sudo так написано). Хотя там есть и -S параметр удобный и даже -A который позволяет прикрутить ASKPASS программу любую ( например вызов keyring)
- pkexec (polkit) + mount - постоянно спрашивает пароль (в общем-то и понятно почему), а чтоб не спрашивал нужно руками править rules/actions. Простой смертный пользователь точно не будет этим заморачиваться
- Отдельный демон запущенный под рутом + dbus (и возможно polkit) - выглядит как самый адекватный вариант. Можно запилить демона который будет чисто запускать mount/umount/fusermount по запросу через dbus. Поидее тут можно и пароль адекватно запомнить и передавать.
Интересно узнать мнение разбирающихся в этом людей
Всем добрый день. Прошу помочь. Пытаюсь собрать nginx для Solaris 10 Sparc. Вот что пытаюсь делать:
CC=«cc» ./configure --prefix=/opt/nginx --with-http_ssl_module --with-http_stub_status_module --with-http_sub_module --with-cc=/usr/sfw/bin/gcc --with-pcre=/usr/local
Результат:
Configuration summary
+ using PCRE library: /usr/local
+ using system OpenSSL library
+ md5: using OpenSSL library
+ sha1: using OpenSSL library
+ using system zlib library
nginx path prefix: «/opt/nginx»
nginx binary file: «/opt/nginx/sbin/nginx»
nginx configuration prefix: «/opt/nginx/conf»
nginx configuration file: «/opt/nginx/conf/nginx.conf»
nginx pid file: «/opt/nginx/logs/nginx.pid»
nginx error log file: «/opt/nginx/logs/error.log»
nginx http access log file: «/opt/nginx/logs/access.log»
nginx http client request body temporary files: «client_body_temp»
nginx http proxy temporary files: «proxy_temp»
nginx http fastcgi temporary files: «fastcgi_temp»
nginx http uwsgi temporary files: «uwsgi_temp»
nginx http scgi temporary files: «scgi_temp»
gmake
gmake -f objs/Makefile
gmake[1]: Entering directory `/opt/nginx/nginx-1.9.9'
cd /usr/local \
&& if [ -f Makefile ]; then gmake distclean; fi \
&& CC=«/usr/sfw/bin/gcc» CFLAGS="-O2 -fomit-frame-pointer -pipe " \
./configure --disable-shared
/bin/sh: ./configure: not found
gmake[1]: *** [/usr/local/Makefile] Error 1
gmake[1]: Leaving directory `/opt/nginx/nginx-1.9.9'
gmake: *** [build] Error 2
Что за ошибка??? Почему? Прошу помочь. Или подкинуть рабочую инструкцию. Буду признателен. Всем добра!!!
Доброго времени суток,решил вместо IPFire поставить на мини-ПК AOpen DE2700 QuckSilver, работающий как домашний маршрутизатор, Zeroshell и сделал пожертвование для получения ключа активации , но уже третий день тишина.
Хотелось бы узнать, Zeroshell еще активен или уже нет?
На официальном форуме небольшая активность пользователей еще есть.
Добрый день!
Написал скрипт который архивирует некоторые папки, два образа из Docker и дамп SQL базы из контейнера. Так же он удаляет старые бэкапы. Весь процесс занимает до 10 сек. Хочу чтобы выполнение этого скрипта было при выходе в сон, выключении, гибернации и т.д.
Сделал его юнитом (/etc/systemd/system/backup-project.service), при остановки службы он выполняется всё нормально.
Но стал тестировать уже при отключении и он не успевает выполниться. Только архив каталога, и нулёвый дамп SQL. Подозрение что когда он выполняется Docker служба завершается.
Если закинуть в crontab:
@reboot /usr/local/Scripts/backup-project.sh
Всё нормально работает, только мне мало при ребуте его выполнение.
Подскажите пожалуйста как можно выставить чтобы Docker юнит не завершался пока моя служба работает?
Система Arch Linux.
[Unit]
Description=Backup project
After=systemd-user-sessions.service
[Service]
ExecStop=/bin/bash '/usr/local/Scripts/backup-project.sh'
Type=oneshot
RemainAfterExit=yes
[Install]
WantedBy=multi-user.target reboot.target poweroff.target hibernate.target sleep.target
Коллеги, посоветуйте простейший тул с веб-мордой или GUI для решение этой задачи ( докер с Node.js и chrome для эмуляции в случае чего проходом по ссылкам{тесты} ) :
- Перезапуск умерших докеров
- Удобное запуск и остановка инстансов ( управление через web/GUI)
- Инстансов может в пике до 1к активных
P.S Просто, тянуть весь стек с Kubernetes думаю тут будет слишком толсто и жирно
Есть проблема не могу изменить HOSTID на Sun Blade 2500
MKP не работает
Может кто то подскажет процедуру
Спасибо
Добрый день!
Не отображается HISTSIZE при запуске скрипта
Скрипт
#!/bin/bash
echo «Здравствуйте,$(whoami) ,размер Вашей истории ${HISTSIZE} команд.»
Буду рад любой помощи
set history -o выкидывает ошибку
dos2unix -не помогает
Здравствуйте. Прочитав кучу информации по файловым системам, так не понял, существует ли хоть одна файловая система с контролем качества записи информации? Ни ext4,ни NTFS так не могут. Допустим появилась сбойная область (не помеченный и не замененый еще badblock, SMART 197 Current pending sectors) на HDD. Система записывает файл на диск и часть файла попадает на эту сбойную часть диска. И файл теряется безвозвратно! И узнать об этом можешь через несколько лет.
Какая файловая система может в момент записи обнаружить, что файл записан некорректно, и обойти эту сбойную область, записав часть файла в другое место?
Я понимаю, что это медленно: надо записать, прочитать, убедиться что записанное и считанное совпадает, может быть записать контрольную сумму блока и только после этого писать дальше.
Но такая ФС существует?
Btrfs вроде бы так могла бы, но не делает?
Просветите, пожалуйста.
Мопед не мой.
требования:
* немного разбираться в принципах работы сип-телефонии
* фуллтайм
* внимательный к клиентам
Пишите ваши варианты. Я надеюсь, хоть пара предложений найдётся.
Предлагаю удаленный аудит, настройку, оптимизацию, администрирование и организацию информационной защиты инфраструктур серверов/систем/сетей.
{{ Интересует только постоянная удаленка и/или средние/крупные проекты с постоянной занятостью с фиксированной компенсацией. Мелкие разовые заказы не интересуют }}.
Настройка, администрирование:
- Операционных систем семейства Unix: Linux, FreeBSD, etc.
- Систем эмуляции архитектур различного уровня их виртуализации: Qemu/KVM, Xen, VMWare.
- Поддержка контейнерных объектов виртуализации высокого уровня: OpenVZ, LXC/Docker.
- Систем управления базами данных как реляционного свойства: MySQL, PostrgeSQL, Oracle, Ingres, так и нереляционного: Redis, MongoDB, CouchDB
- Программного обеспечения сервисов сетевого назначения и обеспечения работы приложений: mail,proxy,web,vpn,etc.
- Систем цифровой телефонии/телефонных станций и сигналинговых сетей в различных схемах на базе ПО Asterisk, FreeSwitch, OpenSIPs/OpenSER.
- Биллинговых систем/систем расчетов хостингов, операторов связи, других видов услуг.
- Систем наблюдения и мониторинга: zabbix/nagios/cacti/etc.
- Настройка и оптимизация коммутируемых и маршрутизируемых ip сетей на базе протоколов статической и динамической маршрутизации, коммутации.
- Масштабирование проектов/решений/сервисов, аудит и обеспечение необходимого уровня их отказоустойчивости, доступности, распределенности, масштабируемости в различных вариациях: LoadBalancing/HighAvaliability сетей и сервисов в том числе при использовании таких решений как heartbeat-технологии: lvs/keepalived/pacemaker-автоматизации, haproxy и других.
- Решений масштабирования объектов хранения: распределенных и кластеризованных и псевдо-кластеризованных файловых систем и устройств.
- Систем контроля безопасности служб и сервисов систем, выявления и реагирования на угрозы в соответствие с международными стандартами ISO и локальными территориальными стандартами безопасности. Параметризации и нивелирования угроз по их свойствам. Применение сопутствующих инструментов, как свободно распространяемых, так и коммерческих аналогов систем: IDS/IPS/AAA/Firewall/etc.
- Инструментов и методов автоматизации процессов сопровождения инфраструктуры и разработки на основе git/svn, а также оболочек chief/puppet/ansible, а также многоуровневых интегрированных инфраструктур автоматизации процессов/микросервисов на на базе облачных решений, а также с использованием kubernetes, и продуктов и оценки необходимости использования таковых.
- Обеспечение динамики процессов CI/CD для тестовых сред и сред разработки. В основном Jenkins.
- Выявление и устранение технических последствий несанкционированного доступа к инфраструктуре, причин утечек информации, защита итд.
- Организация и внедрение уникальных и индивидуальных решений в области анонимизации сетей/структур. Под заказ и под ключ.
- Консультации в сфере указанной компетенции, внедрение, планирование, поддержка.
- Решение многих других сложных и нетривиальных задач в контексте обозначенной тематики.
Не организация, а частное лицо.
{{ В случае возникновения вопросов, просьба обращаться только через указанные контакты: }}
- Jabber(JID): [email protected]
- Skype: sysbooter
- Telegram: @sysbooter