LINUX.ORG.RU

Избранные сообщения NorthernBlow

Доступ к клиентам Wireguard

Форум — Admin

Всем привет! Имеется офис с сетью 10.20.0.0/25. Поднял Winreguard на Ubuntu 20.04 по этой инструкции https://github.com/wg-easy/wg-easy с пулом адресов 10.10.0.0/24. Клиенты подключаются к удаленной сети и работают. Возникла необходимость удаленно подключаться к самим VPN-клиентам из офиса, т.е. необходимо получить доступ из подсети 10.20.0.0/25 в 10.10.0.0/24. Как это сделать?

 ,

max85
()

Берусь переписывать CCleaner

Форум — Talks

Здаровчик, котаны! Проснулись? Я уже с 6:40 в офисе и на свежую голову пришла бредовая идея.

Первый в истории прецедент блокирования использования ПО в стране: Avast и AVG запрещают использовать свои ПП в РФ!

Прочитав эту новость, решил обсудить актуальность и что можно будет чистить в лялихе? Писать буду на Qt5/Qt6. Хочу начать с линуховой части, так как мне кажется это будет проще сделать. В оффтопике ясно там все TEMP'ы по переменным окружения чистить и реестр, а что чистить у нас в онтопике? Версия будет и для Mac'а ессно. Как всегда будет кросссборка, собирать буду всё сам.

 , , , ,

xwicked
()

vim для самых маленьких

Статьи — Desktop
vim для самых маленьких

Основные команды текстового редактора vim

( читать дальше... )

 , ,

LINUX-ORG-RU
()

Минимальное железо для просмотра YouTube без боли

Форум — Linux-hardware

Задача: Собрать комп (или купить одноплатник \ ноутбук), который без проблем тянет текст, музыку, картинки и видео в 720p (аппаратное ускорение).

Вопрос: Как думаете, какой процессор, видеокарта (и сколько памяти) минимально нужны для таких задач? Какой Linux подойдет?

Интересен именно самый минимум. Самое древние железо, которое может справится. Буду очень рад почитать ваши размышления, заранее спасибо!

 , ,

Reptile
()

Как реализовать доступ извне к сети openvpn?

Форум — Admin

Всем дорброго времени суток. Ув. знатоки прошу помощи. Есть сеть OpenVPN.

  • впс1 с белым айпи выступает в роли ов сервера.
  • клиент1 с серым айпи - веб-сервер.
  • впс2 с белым айпи - выступает как клиент,
  • клиент2 для теста сети.

В этой сети впс2 подключается и сохраняет свой белый айпи и перенаправляет трафик на клиента1. То есть по логике у клиента1 должно быть 2 белых айпи. Но суть проблемы в том что трафик по айпи впс2 проходит только внутри сети, доступ к сайту у клиента2 есть только тогда когда он подключен к впн-серверу впс1. Как правильно сделать маршрутизацию, чтоб айпи адрес впс2 давал доступ извне к клиенту1 (веб-серверу)?

 , ,

bover_gg
()

Docker vs LXD(LXC)

Форум — General

Хочу сделать ремарку, что я вообще в этом не специалист и разбирался со всем на ощупь.

Так уж случилось что пришлось столкнуться с контейнерами. Решил освоить для отделения мух от котлет разделения девелоперской машины и рабочего сервера для локальных проектов. Хотел настроить git и LSP на сервере, и выбор пал на текущие решения контейнеризации.

Когда-то использовал Docker для разворачивания отдельного приложения из образа и были некоторые проблемы с монтированием папок в него (может быть вообще не так нужно было делать), хотел сделать общую директорию для хоста и гостя, в итоге наткнулся на огромнейшее количество костылей для этого и остального.

Сейчас создал контейнер в LXD и мне это очень понравилось, всё стало буквально из коробки, для непривелигилированого контейнера просто добавил юзера в группу lxd.

Я понимаю что Docker более ориентирован на контейниризацию приложений, но всё же хотелось сравнить с контейниризацией ОС.

Поскольку Docker переехал на свои рельсы, я так понимаю, ради кроссплатформенности, то в чём плюсы и минусы Docker и LXD на данный момент. В интернете все нахваливают Docker, но я не пойму за что, ведь на мой дилетантский взгляд, LXD ничем не уступает.

UPD: Если туплю, то не сильно сердитесь. Пятница же!

 , , ,

Artamudo
()

Временное рабочее (и не только) место

Галерея — Рабочие места

Корпус системного блока - MasterBOX NR200P от CoolerMaster в т.н. SFF (small form factor) исполнении. Габариты корпуса 376x185x292 мм. Вес около 8 кг в собранном виде без упаковки. Системник довольно удобен в транспортировке: помещается в сумку для тренировок, без вопросов проходит в ручной клади при перелетах.

Немного про начинку данного товарища:

Начну с главного компонента любого компьютера - блока питания. БП Seasonic Focus SGX на 650W с 80+ Gold сертификатом, модульный, форм-фактор SFX-L.

Материнская плата на B450 чипсете от Gigabyte, модель «I AORUS PRO WIFI». При выборе системной платы одним из критериев было наличие звукового чипа Realtek 1220 и поддержка WIFI5+BT не ниже версии 5.0. В итоге мать оказалась с довольно хреновым WIFI+BT чипом Intel AC9260, который был заменен на интеловский AX210.

Процессор Ryzen 5 5600X + башня be quiet! Pure Rock 2 c 4-мя тепловыми трубками.

Оперативная память Kingston KVR 2x32GB 3200Mhz.

Видеокарта MSI Ventus RTX 3060 12GB.

NVMe накопитель Samsung 970 EVO Plus 2TB произведенный 03.2023 со свежей прошивкой и контроллером Elpis (вместо Phoenix), который используется в старшей модели 980PRO.

«Перелётно-походный» монитор IIYAMA ProLite XUB2292HS-B1 (FHD, IPS, Flicker-free + Blue light reducer) с регулировкой по высоте/наклону/повороту.

Дешёвый графический планшет XP-Pen. Механическая клавиатура Ducky One 2 TKL. Мышь Smartbuy 334K. Микрофон HyperX SoloCast + вебка Logitech c270 для общения с коллегами и родственниками в Discord/Skype/Slack/Telegram. Игровой контроллер Xbox для покатушек и побегушек во всяких RDR2, DIRT Rally, GTA и прочих киберпанках. Беспроводные наушники Edifier W800BT Plus. Вроде всё.

P.S. Снято на кроссовок.
P.P.S. Внутренности человека машинки https://imgur.com/7QDZrSs

>>> Просмотр (1920x1086, 2978 Kb)

 ,

basilic
()

Как добавить подписку на last.fm в Cmus ?

Форум — Multimedia

Пользовался инструкцией с http://rus-linux.net/nlib.php?name=/MyLDP/mm/cmus_review/obzor-konsolnogo-aud... Скачал скрипт, создал папку .cmus , закинул в нее скрипт добавил логин и пароль, сделал скрипт исполняемым, но при попытки активации скрипта командой :set status-display-program=~/.cmus/post-fm cmus выдает ошибку Error: no such option status-display-program как с этим вообще бороться? На в статье сказано, что старые версии не поддерживают эту функцию, но статья была написана более семи лет назад, а система у меня новая (Manjaro Linux).

 

zoidberg
()

Ваша вторая книга по C++20

Форум — Talks

После долгого перерыва решил подтянуть плюсы до актуального уровня. Возник вопрос: что читать после Страуструпа? Мейерсу 10 лет в обед, актуальность под вопросом. Вышло что-то после него под названием «your second C++ book»?

 

untitl3d
()

Мои мысли про kubernetes

Форум — Talks

Решил написать заметку про kubernetes. Сам работаю с небольшим кластером, делаю всё один, а также в силу характера докапываюсь до всех мелочей, поэтому волей-неволей пришлось разбираться со многими вещами. Может кому полезно будет.

Ничего конкретного писать не буду, буду писать концептуально и про свой опыт. Конкретной информации в интернете хватает. Также многие моменты буду упрощать, просьба не цепляться к мелочам.

Кратко что это вообще такое

Предполагаю, что вы знаете про докер, иначе смысла читать дальше нет. Кубернетес это такая надстройка над докером, которая:

  1. Объединяет несколько разных компьютеров в один логический кластер.

  2. Позволяет создавать и запускать контейнеры. Сильно похоже на docker-compose, но k8s позволяет не указывать конкретный компьютер, на котором будет запущен контейнер, а сам его выбирает.

  3. Обеспечивает виртуальную сеть между всеми контейнерами в пределах кластера, обеспечивает т.н. service discovery, а также обеспечивает балансировку нагрузки междду сервисами внутри этой виртуальной сети. Т.е. я могу во-первых в своей программе по днс-имени postgres-1 узнат IP-адрес первого контейнера с постгресом, а во-вторых по днс-имени postgres-ro получить дважды виртуальный IP-адрес, при соединении на который моё соединение уйдёт на случайный инстанс постгреса.

  4. При надлежащей настройке делает это всё высокодоступным и масштабируемым. Т.е. при исчезновении по любым причинам любого сервера из вашего кластера, он продолжает оставаться работоспособным. А также запускает больше контейнеров при повышении нагрузки на сервис.

Таким образом конкретный сервер абстрагируется, для контейнера не важно, где он запущен, он видит весь кластер.

На самом деле современный k8s работает не поверх докера, а поверх легковесной абстракции CRI и её реализации обычно в виде containerd, но это частности

Кому это надо и какие альтернативы

В принципе это надо всем, кому не хватает одного сервера. Хотя не все понимают, что это им надо. В общем-то можно и полуручными способами обходиться довольно долго. Но нужно ли - вопрос открытый.

Альтернативы я знаю следующие:

Hashicorp Nomad. Штука похожая на k8s, но гораздо менее распространённая. По слухам настраивать гораздо проще. Сам не пробовал. Я человек мейнстрима и выбираю то, что выбирает большинство.

Docker Swarm. В принципе очень похоже на следующий шаг после docker compose. Если вам перестало хватать одного сервера, на котором всё было через docker compose, а времени/желания изучать полностью новую платформу у вас нет, наверное это логичный шаг. Его я сам тоже не пробовал.

Проприетарные облачные решения. У всех крупных вендоров они есть. К примеру AWS Fargate. Главный минус: ваше приложение будет прибито гвоздями к этому вендору. Съехать с него малой кровью не получится.

Ценность kubernetes вижу в следующем:

  1. Независимость от вендора. У каждого облака есть managed kubernetes. И хотя детали у них отличаются, но всё же сам kubernetes один и тот же. Переехать с одного облака на другое не намного сложней, чем переехать с Debian на RHEL.

  2. Опция селф-хоста. Если ни одно облако не нравится, всегда есть опция купить ящик с SuperMicro и поставить всё туда.

  3. Популярность. По большому счёту альтернативы на сегодня не взлетели. Специалистов по k8s найти проще, чем других. Документации в интернете очень много. Есть и компании, которые будут админить ваш кластер за вас.

Как это использовать

Основных способов два: либо своими силами поднимать кластер, либо использовать управляемое решение от облачного вендора.

Если своими силами поднимать кластер, надо понимать, что для кластера имеются следующие требования:

  1. Кластеру нужен балансировщик нагрузки. Это когда у вас есть публичный IP-адрес, и N адресов. И соединения, приходящие на этот публичный адрес будут равномерно распределяться на эти N адресов. Балансировщик нагрузки должен мониторить доступность клиентов и вовремя включать/выключать их.

  2. Кластеру нужно сетевое хранилище. Это когда вы можете какой-то сетевой диск подключить к любому (одному) компьютеру и потом в линуксе он должен появиться, как /dev/sdc.

Первый пункт можно сделать самому через haproxy. Но не очень просто, если делать по уму (отказоустойчиво). Ну крутые дядьки, наверное, чем всякие там cisco такое могут делать вообще уровнем ниже, с резервированием на уровне проводов. Впрочем у них и грохается всё круто.

Если у вас гордый кластер из одного компьютера, ему балансировщик нагрузки не нужен.

Также можете тупо дать каждому серверу публичный адрес и все их вбить в DNS с коротким TTL. Не знаю, можно ли считать это балансировкой нагрузки, но с какими-то оговорками работать будет… Ну это так, из разряда дёшево и сердито.

Как сделать второй пункт самому, я не знаю. Есть ceph, есть ещё что-то, но это всё сложно. В принципе второй пункт не абсолютно критичен и если не запускать в кластере никакие сервисы, которым требуется что-то хранить, то без него можно обойтись. Также можно использовать локальный диск сервера, но надо понимать, что ваш контейнер с БД на другом сервере уже запустить не получится, данные магическим образом не переместятся. Ну и в целом использование локального диска в кубернетесе довольно геморное. Рекомендовать я его точно не буду. Есть какие-то решения, которые берут локальные диски всех серверов и автомагическим образом из них делают доступное сетевое хранилище, я такими не пользовался и в магию не верю.

Обе проблемы легко решаются, если вы своими силами поднимаете кластер, используя облачного провайдера, который предоставляет вам вышеописанные сервисы. Я именно так и делаю: мой провайдер использует OpenStack и Ceph и балансировщик нагрузки с сетевыми дисками у него доступен (под капотом балансировщик нагрузки это тупо две виртуалки с haproxy, но для меня это не важно).

Ещё с сетевыми дисками важно, чтобы был CSI-драйвер для них. Для OpenStack такой есть. Т.е. kubernetes должен этому драйверу отдавать команду «подключи мне диск pvc-7672ffed-9ddc-4df4-affd-a717a1c11c79 на сервер 10.160.3.160» а драйвер должен отвечать «смонтировано в /dev/sdg».

Для своего кластера есть следующие подходы:

  1. kubeadm. Это набор софта от разработчиков kubernetes, который устанавливает и обновляет компоненты кластера. Я использую этот подход. Под низом стоит обычный линукс. У меня это debian minimal. Проблем с ним я не испытывал. Вообще народ обычно убунту использует, меня от неё воротит. По идее можно и на центоси, есть и более экзотичные варианты вроде CoreOS, я не вижу смысла тут использовать что-то необычное.

  2. Talos Linux. Это офигенная штука: ядро линукса плюс необходимый набор софта плюс сам кубернетес. Это всё идёт как один ISO и грузится в память. Ему даже диск не нужен. И сразу работает. Короче это по сути kubernetes как ОС. Я слишком поздно про него узнал, вероятно я бы его предпочёл. Надо понимать, что штука относительно новая и экзотичная, но я от него в восторге. По крайней мере в концептуальном восторге, может на практике вылезут нюансы.

  3. kubespray это огромная куча ansible скриптов, которые обещают, что за тебя всё сделают и поставят. Сам не пробовал, меня такая концепция не устраивает. Если я и буду пользоваться кучей ansible скриптов, то только теми, которые пишу сам. Туда же дистрибутив от Flant. Есть, наверное, и менее популярные решения.

  4. Kubernetes the hard way. Это когда ты руками всё настраиваешь сам, ставишь каждый компонент и тд. В целом ничего сверхъестественного тут нет, весь kubernetes это несколько сервеных программ плюс кучка настроек для них вроде своего УЦ с сертификатами и прочим. Но это ненужное усложнение и оправдано только для изучения потрохов. Сам я его не делал и страданий от этого не испытываю. В общем что-то вроде Linux From Scratch.

Управляемые решения я сам не использовал. В целом они решают некоторые проблемы и добавляют свои. Самый главный плюс управляемого решения: хостер будет сам управлять серверами. К примеру при росте нагрузки хостер сам создаст дополнительные серверы, установит туда k8s и добавит их в кластер. При снижении нагрузки он эти серверы выведет из кластера и уничтожит. Это называется node autoscaling. В моём кластере такого нет. В принципе это можно и самому сварганить, если снизу инфраструктура с каким-то API, которая позволяет создавать и удалять серверы. Но это нетривиально и требует программирования.

В целом моё мнение на текущий момент: лучше использовать управляемый k8s от серьёзного облака. Он не так уж много сил экономит, как они это пытаются показать, но всё же сколько-то - экономит, а денег за него обычно не просят. На втором месте: использовать k8s поверх облака, которое даёт нужные «примитивы»: балансировщик нагрузки и сетевое хранилище. На третьем месте: использовать k8s на своём железе.

Неочевидные преимущества Kubernetes

Первое преимущество Kubernetes похоже на преимущество докера, которое я не сразу осознал. В докере помимо технологии есть ещё и коммьюнити. Это тысячи людей, которые собирают готовые пакеты. Если мне нужен postgres или wordpress или ещё что угодно, скорей всего это кто-то уже собрал. И даже если я решу собирать свой образ, я как минимум смогу посмотреть на чужие докерфайлы, а скорей всего мне хватит чужих. Это экономит много времени и сил. В кубернетесе похожая тема: для него создано куча софта и деплойментов, которые позволяют в пару строк деплоить в кластер довольно сложные конфигурации. К примеру прометей, собирающий метрики, локи, собирающий логи, ещё кучка вспомогательных агентов и графана, уже настроенная на отображение всего этого, ещё и с кучей готовых дашбордов, которые не стыдно директору показать. Почти для любого софта, который я хочу запустить в своём кластере, есть хельм от производителя, в котором всё уже прописано. И даже если я решу писать дескрипторы сам, я в этот хельм смогу посмотреть.

Второе преимущество Kubernetes на самом деле тоже похоже на преимущество докера, которое я тоже не сразу осознал. Это сближение программистов и админов. В классическом древнем подходе программист пишет код, сборщик собирает из этого кода артефакт, а деплоер устанавливает этот артефакт на сервер. Докер позволяет сблизить программиста и сборщика. Когда программист указывает в машинном виде все инструкции для сборки и все «входные» артефакты. Причём не в виде кучи непонятно каких скриптов, а в относительно стандартизованном виде. Вот Kubernetes с его ямлами делает похожую задачу и сближает программиста и деплоера. Когда ты можешь в своём софте написать в машинно-читаемом виде - какие volume-ы нужны твоему софту, какие конфиги, какие переменные окружения, какие порты твой софт выставляет и тд.

Третье преимущество в том, что есть некоторые уникальные софтины. К примеру я пускаю БД в кластере. БД управляется через оператора. Оператор это такая программа (которая тоже запущена в кластере) которая создаёт контейнеры с БД, настраивает их как надо и как бы следит за ними. К примеру я буквально несколькими строчками настроил запуск постгреса в двух копиях с периодическими бэкапами в S3 и постоянными бэкапами wal-логов туда же. В итоге имею high-available СУБД кластер с бэкапом и возможностью откатиться с гранулярностью в 5 минут. Руками такое настраивать я бы наверное несколько дней минимум потратил. Понятно, что если сломается, то в общем случае для починки придётся разбираться что там как устроено. Ну пока не ломалось. Может и не сломается.

Вот эти преимущества позволяют мне рекомендовать использовать Kubernetes даже там, где сегодня нет никакого кластера. Т.е. просто вместо докера, на обычном одном сервере. В таком варианте, кстати, не нужен ни балансировщик нагрузки, ни сетевые диски.

Недостатки Kubernetes

Вот это, наверное, самый важный раздел и то, на что частично отличается от того, что я читаю вокруг.

  1. Требования к железу. Для полноценного высокодоступного кластера требуется три сервера по 4GB RAM и 2 CPU, которые будут использоваться исключительно для Kubernetes (мастера). Также на каждом рабочем сервере нужно зарезервировать примерно 20% оперативной памяти. Также Kubernetes до недавнего времени не работал со свапом, а с недавнего начал работать в экспериментальном виде, но про это никто не пишет и не знает. В общем можно считать, что свопа нет. Для крупных проектов эти требования не очень существенны, если же весь ваш проект это 2GB VPS за $5, то kubernetes вам не подойдёт. Нужно свой бюджет расширять хотя бы до 8GB за $20.

1.1. А ещё желательно иметь два кластера. Один тестовый, а один боевой. И тестировать свои эксперименты на тестовом. Лично у меня такой возможности нет, я работаю в компании, которая экономит на всём, и $300 в месяц на тестовый кластер это дораха. Поэтому я написал нужные terraform скрипты и прочее, что позволяет мне поднимать тестовый кластер за 15 минут, а потом опускать его. Но лучше не экономить на спичках и держать два одинаковых кластера.

  1. Требования к квалификации. Для того, кто с k8s не работал, там всё будет новое. И хотя ничего особенно сложного там нет, но объём знаний всё же существенный. В целом готовьтесь потратить несколько месяцев на изучение и работу с тестовым кластером. Не вздумайте сходу переводить прод на k8s, если он нужен кому-то кроме вашей мамы. Также надо понимать, что kubernetes очень плотно работает с линуксом. cgroups, iptables, ebpf - эти слова не должны вводить вас в ступор (ebpf меня в ступор вводят, в частности поэтому я отказался от cilium).

  2. Он провоцирует к обезяньнему девопсингу. Этим термином я называю деятельность по копипасту непонятных команд с надеждой получить блестящее и пердящее UI. Я уже выше приводил пример с графаной, когда одной командой можно поставить около десятка сложнейшего преднастроенного софта. Вот это слишком провоцирует. А когда этот сложнейший преднастроенный софт сломается, то обезьяна ничего сделать не сможет. Поэтому обезьяньи порывы надо в себе подавлять и пользоваться только тем, в чём ты хорошо разобрался. А если не разобрался - то сидеть и разбираться. А когда уже разберёшься, тогда можно и готовыми комплектами пользоваться, хорошо понимая, что там где или хотя бы где посмотреть можно.

В целом нужно соблюдать баланс между написанием всего самому и использованием всего готового. Тут обе крайности вредны. На первое времени не хватит. Второе чревато последствиями, ты понятия не имеешь, что происходит у тебя в кластере.

  1. В нём «из коробки» нет многого, что можно было бы ожидать от него. К примеру есть ингрессы (это описание входных точек для внешних сервисов), но ингресс-контролера нет, нужно выбирать и ставить, а их, между прочим, штук 15 разных. Да что там ингресс-контролер, там даже этой самой вышеописанной виртуальной сети нет, есть только некие интерфейсы, а реализацию, которая будет эту сеть «настраивать» - надо ставить самому (собственно это первое, что вы будете ставить в только что созданный кластер). Причём этих реализаций опять же штук 10 разных. И муки выбора - flannel, calico, а может модный cilium, а вот тут на реддите ещё про что-то писали, ааа, вот это при некотором складе характера может мучить. Меня мучает. Я боюсь сделать неверное решение. Если что, я выбрал ingress-nginx и calico для вышеописанных пунктов, как наиболее понятные и консервативные решения. Не жалею.

  2. Он провоцирует ставить и настраивать то, что вам в общем-то не особо и надо. Ну вот жили мы с докер-композом, проставляли реплики в конфиге руками и ладно. А тут вроде есть horizontal pod autoscaler, который будет в зависимости от нагрузки запускать больше или меньше реплик, круто же. А для него метрики нужны, надо ещё компонент для метрик поставить. А вот про istio прочитали, он вообще даёт возможность смотреть все запросы между сервисами, а-а-а, это же просто огонь. В общем вроде и не сказать, что это плохо, т.к. это всё даёт лишние возможности, но всё же тут важно не увлекаться. Может оно вам не так уж и надо, раз жили без этого. Каждая софтина это время на изучение документации, это постоянные затраты времени на чтение ченджлогов, обновления, обновления конфигов. А если это ещё и штука вроде istio, которая не сбоку-припёку, а влезает прям между вашими сервисами, то это ещё и потенциальная причина того, что всё сломается и вам придётся ковыряться в ихних кишках в самое неудачное время. Ну и ресурсы тоже каждая софтина требует, ага. Вроде и всё на го написано, вроде и не ресурсоёмко по большому счёту, но потихоньку набегают гигабайты…

  3. Несмотря на то, что я выше написал про докер, на самом деле с самим докером он плохо совместим. И если вам хочется сделать такую простую и понятную штуку, как запуск вашего CI в кластере - типа коммит прошёл, теперь надо docker build сделать, вот это простое желание на самом деле таит в себе столько нюансов, что я в итоге отказался от этого желания и для CI завёл тупо отдельный сервер с докером.

  4. Кубернетес из коробки адски небезопасен. Легко создать под, в котором будет подмонтирован корень вашего сервера. И удалить там всё, азаза. При этом, конечно же, есть все возможности закручивать гайки сколько угодно, но это надо делать. Когда пишешь helm install, обычно оно ставится от cluster-admin и в общем случае может делать с кластером что угодно. Если у вас отдел девопсов, которые там каждый ямл обнюхают и будут это делать каждую неделю, ставя новую версию, ну классно. А если весь ваш девопёс это я, занимающийся этим, когда других задач нет, и джуниор, который сам всё поломает, только доступ дай, то не классно. Поэтому см. пункт выше про отдельный тестовый кластер.

  5. Гитопс. Гитопс это круто и здорово, но я так и не впечатлился. В общем не рекомендую. С одной стороны - да, весь ваш кластер должен лежать у вас в гите, а не в голове и при необходимости подниматься несколькими командами (или несколькими десятками команд, не принципиальная разница, у меня второй вариант). С другой стороны внедрять прям 100% гитопс, когда вам реально надо коммитить в гит, чтобы там что-то срабоатло, я долго пытался это делать на flux, я его неплохо изучил, но в итоге отказался. Опять же если у вас отдел девопсов, которые будут там друг друга ревьюить и мерджить, то наверное ок. Если вам нужно держать не один кластер, а сто кластеров, развернутых и обновляемых из одного репозитория, то конечно ок (хотя тогда вы сами меня учить будете, а не читать это). А если вас один-два человека, ну я решил, что оно не надо. У меня весь репозиторий это terraform-шняга, которая просто создаёт серверы, на этих серверах через cloud-init при создании ставится containerd, kubelet и прочая ерунда, потом я туда по ssh захожу и вбиваю kubeadm join и всё. Это инфраструктура. Второй репозиторий это во-первых кучка скриптов (в основном helm update, чтобы не запоминать это всё), во-вторых кучка kustomize-ов, которые уже ставят либо то, что в helm не обернули (или я не захотел этим пользоваться), либо, собственно, тот софт, ради которого весь этот кластер вообще существует.

  6. Ямлы-ямлы-ямлы-ямлы. Не, я не особо жалуюсь, но всё же в кубернетесе эти ямлы они как-то совсем уж беспонтовые. И дело не в формате, а в том, что они совсем не добавляют синтаксический сахар. Это не является чем-то адски страшным, но когда пишешь

ports:
  - name: http
    containerPort: 3100

вместо

ports:
  http: 3100

или вся эта копипаста

spec:
  selector:
    matchLabels:
      app: loki
  template:
    metadata:
      labels:
        app: loki
    spec:
      containers:

в которой сути около нуля, то это утомляет слегка. В общем синтаксического сахара не хватает. Да, конечно, это можно всё генерировать, но это лишние усложнения. На мой взгляд это должно было бы быть из коробки. А они какие-то свои внутренние структуры просто замапили в JSON и объявили это стандартом. А то, что это будут писать люди, про это никто точно не думал.

  1. Также из коробки поставленный через kubeadm кластер не стабилен и сервер легко роняется одним подом, который решил сожрать всю память (у меня сервер просто перестал отвечать, где там были все эти ваши оом киллеры, я не знаю). Это меня неприятно удивило. А чтобы сделать его стабильным, мне потребовалось потратить не один час на чтение документации и разного рода настройки (в основном резервирование памяти для кублета, системы и тд). Что мешает kubeadm-у прописывать лимиты самому, я не понимаю.

  2. Если у вас три сервера, один сервер упал и вы ожидаете, что кубернетес в ту же секунду, радостно повизгивая, побежит перезапускать все поды на других серверах, то вы сильно ошибаетесь. Во-первых он вообще не сразу поймёт, что сервер упал. Во-вторых он ещё минут 5 подождёт. Ну вдруг тот не упал, а просто устал немножко и присел отдохнуть. Про 5 минут не уверен, кстати, может быть даже 15 минут, сорри, лень смотреть. В общем, как говорится, eventually он таки - да, перезапустит поды на других серверах. Но к вам за это время уже успеют прибежать и наорать, что ничего не работает.

Поэтому high availability это все ваши сервисы, запущенные в двух копиях минимум. Иначе это eventual availability. Что тоже неплохо и лучше, чем unavailability.

Вышеописанные таймауты можно настроить, если что. Но, наверное, не нужно. Я не стал.

Из этого, кстати, вытекает 12. Настроек очень много. Туториалов о том, как эти настройки настраивать - ещё больше. И на ютубе и в тексте. А вот какие значения нужно проставлять, какие плюсы, какие проблемы - тут все резко затыкаются.

  1. Будьте готовы читать много кода на go, копаться в исходниках и issues. Ну может мне так повезло или у меня такой стиль решения проблем. Но такого, как в традиционном линуксе - когда почитал man iptables или IPTABLES HOWTO и нашёл ответы на все вопросы - тут часто не получается. Какая-то мелкая, но нужная софтинка. В доке ничего не понятно, приходится лезть в исходники и смотреть - что там на самом деле. Или гуглишь - ничего релевантного. Залазишь в гитхаб issues, ищешь там и, таки, находишь ответ на свой вопрос.

 ,

vbr
()

Моё текущее рабочее место

Галерея — Рабочие места

Моё рабочее место в данный момент выглядит так. На фото можно увидеть:

  • Ноут Lenovo ThinkPad x230 (Core i7);
  • Ноут Lenovo ThinkPad T14 (Core i7);
  • Монитор Acer KG271;
  • Клавиатура Lotus 58;
  • Трекбол Logitech MX Ergo;
  • Часы Huawei Watch GT-2;
  • Asus Tinkerboard в качестве мини-NAS’а.

На ноутах:

  • Debian Sid (Bookworm);
  • SwayWM;
  • Waybar;
  • Wofi;
  • Kitty;
  • Fish;
  • RangerFM;
  • DevilutionX.

>>> Просмотр (4608x3072, 1259 Kb)

 , , , ,

nuxster
()

Крик души

Форум — Talks

Извините, но я больше не могу молчать. Господи! Какое же дерьмище этот паппет! Я сейчас изучаю по нужде этот кусок медвежьего говна и страдаю каждую минуту.

Документация это отдельный разговор. Не припомню сходу, видел ли я доки хуже. Такое ощущение складывается, что они специально написали ей левой ногой, чтобы народ у них курсы по их корявой поделке покупал. Вот вышла версия паппета номер 2 и там появилась функция А - окей, авторы описали эту функцию в доке к верссии 2. Затем вышла версия паппет номер 3 - и в документации к верссии 3 будет только функция Б, функция А останется в доках ко второй версии. И приходится постоянно прыгать между версиями, а их на минуточку 7 и промежуточные релизы.

В дополнение к сказанному, эта технология ещё и полудохлая. Последняя книга выходила аж в 2015 году. Инфу как сделать то и как сделать это надо искать по крупицам в гугле, буквально по крупицам!

Возможно, на моё восприятие ещё повлиял синдром утки, так как первым я изучил ансибл. Боженька ты мой, какие светлые воспоминания. Всё логично, стройно и подробнейшим образом расписано. А вкупе с огромным коммьюнити, можно решить или хотя бы нагуглить решение практически любой проблемы. Слава ансиблу. Позор и свалка истории паппету.

Паппет сложен просто по приколу. ни одной причины я не увидел зачем было чрезмерно усложнять и запутывать устройство этого выблева пьяной бомжихи.

Даже денег некому дать, чтобы научили пользоваться этим пережитком прошлого. Тот же скиллбокс вежливо пояснил, что такому отсталому говну не учат. Мол, сорян, это вам к сантехникам.

Я кончил.

 

SpaceRanger
()

Как там на Маке?

Форум — Talks

Маководы не спорят, какой графический сервер лучше, X или wayland, какой звук лучше, pulse или alsa, какая система инициализации лучше, systemd/init, GTK/Qt…

Это из-за того, что нет выбора, или они там и вправду хороши?

 

Quasar-Napilnik_CPY
()

Нескучный экран загрузки как сама бесполезная программа

Форум — Talks

Скажите, а я один не понимаю смысл существования этого графического экрана загрузки с прогрессбаром? Оно появилось и существует чтобы что? Даже создание очередного текстового редактора с нуля выглядит менее бессмысленно, чем эта программа.

  • Текстовый лог загрузки показывает наглядно, что происходит. Если что-то пойдёт не так, то сразу будет видно. А с plymouth бывали ситуации, когда он в случае проблемы просто не отключается по esc, и лог не видно никак.
  • Текстовый лог это на самом деле прикольно. Машина работает, видно, как она функционирует. Это фишка. Она интересная.
  • Даже если у вас машина грузится 2 секунды, то 2 страницы текста, которые промелькнут за эти 2 секунды, как бы говорят: «Ого, смотри как быстро. Это 2023-й год, ёлки-моталки!» А если ты две секунды смотришь на статичный экран, то успеваешь подумать о том, что комп всё еще грузится не слишком быстро.
  • Ну и у systemd реально красивый загрузочный лог. Уж точно симпатичнее абстрактных картинок.

 ,

wandrien
()

ratpoison - mouseless wm

Галерея — Скриншоты

После использования Emacs мне захотелось такой же WM, как и у него, только в X11. Заюзал сначала Stumpwm, но не осилил (да и тормозил он почему-то). Позже заюзал ratpoison. Что на скриншоте:

  • Debian testing
  • mcabber
  • любимый moc
  • mc с немножко подпиленной темой modarin16
  • кусок конфига ratpoison
  • Терминал — свалил наконец-то с xterm на rxvt-unicode.
  • Панелька — dzen2 + conky + самопальные xpm-иконки

Часто используемые действия (ssh, apt-get) забиндены на кнопки. Действия с окнами/фреймами немного в emacs-стиле. (C-x o, C-x k, C-x 3, и т.д.).

>>> Просмотр (1366x768, 75 Kb)

 ,

Extraterrestrial
()

[OpenGL, GLSL] Несколько вопросов по программированию шейдеров

Форум — Development

У меня в процессе изучения языка GLSL возникло несколько вопросов. Если скажите, где можно на русском языке (на англ. плохо получается читать такой непросто материал) прочитать про это буду благодарен, но порой лучше чтобы собственными словами объяснили некоторые моменты - так просто понятнее.

Есть например функция texture2D, которая как написано в документации читает из текстуры. А что конкретно она читает? Что обозначает gl_TexCoords[0] ? vec4 t0 = texture2D(uniform sampler2D mySampler2D, gl_TexCoords[0]); что обозначает gl_TexCoord[0].st конкретно st ?я так понимаю, что это относится к текстурному вектору? Или например мы обращаемся в функции main шейдера к gl_TexCoords[0].x, т.е. мы получаем текующую координату по x для конкретного текселя ?

goliath
()

Sony представила microSD карточку для аудиофилов

Форум — Talks

Sony мало плеера на андроиде за $1200, теперь аудиофилам надо купить еще и microSD карточку на 64 Гб за $155, которая при чтении шумит меньше. for Premium Sound!

 , , бегом раскошеливаться

t184256
()

Хоткеи при двораке и русской раскладке.

Форум — Desktop

Может быть кто-то знает, как можно победить данную проблему. KDE, 2 раскладки: программерский дворак и русская. В случае с включенным двораком в хроме хоткеи работают нормально, Т.е. когда я жму ctrl+t в дворак раскладке оно открывает новую вкладку. Но если я переключаюсь на русский язык - перестает работать(но работает если нажимать ctrl+t в qwerty раскладке - работает). Такая-же фигня в vscode.

При этом в ff все работает прекрасно независимо от того, какой язык выбран.

 , ,

aiive
()

Попытка перебраться на Awesome WM

Галерея — Скриншоты

Привет лор, на днях решил попробовать сей WM. В итоге остался довольным, немного поправил под себя тему «Multicolor», которую взял тут

Терминал termite, nano, и если очень припекло, открываю atom иногда.

Для просмотра всяких онимэ юзаю Mplayer.

Отрисовкой теней занимается compton

Все, кроме первого рабочего стола, использую под тайлинг.

А так вроде дефолтненько.

«Чистый» скриншот

>>> Просмотр (1366x768, 988 Kb)

 , ,

Deleted
()

Концепция веба будущего

Форум — General

Смотрю я вот на накачанные wget 580 мегабайт с одного сайта и вижу, что в принципе это мусор и всё надо качать заново с другими опциями при этом в отличии от торента использовать уже закачанное не выйдет.

Всё это наводит на более общие мысли о том, что современный веб, да и приложения на Андройде слишком много выкачивают одного и того же по второму и третьему разу, чем неоправданно сильно грузят интернет и сервера.

С другой стороны доменное имя применительно к сайту это не более чем точка на которой собираются пользователи ресурса, ей совсем не обязательно быть чётко привязанной к конкретному серверу, который в случае популярности его владельцу будет очень дорого оплачивать.

Каким должен быть веб будущего?

 , ,

torvn77
()