Netplan v0.107 is now available

I’m happy to announce that Netplan version 0.107 is now available on GitHub and is soon to be deployed into a Linux installation near you! Six months and more than 200 commits after the previous version (including a .1 stable release), this release is brought to you by 8 free software contributors from around the globe.

Highlights

Highlights of this release include the new configuration types for veth and dummy interfaces:

network:
  version: 2
  virtual-ethernets:
    veth0:
      peer: veth1
    veth1:
      peer: veth0
  dummy-devices:
    dm0:
      addresses:
        - 192.168.0.123/24
      ...

Furthermore, we implemented CFFI based Python bindings on top of libnetplan’s API, that can easily be consumed by 3rd party applications (see full cffi-bindings.py example):

from netplan import Parser, State, NetDefinition
from netplan import NetplanException, NetplanParserException

parser = Parser()

# Parse the full, existing YAML config hierarchy
parser.load_yaml_hierarchy(rootdir='/')

# Validate the final parser state
state = State()
try:
    # validation of current state + new settings
    state.import_parser_results(parser)
except NetplanParserException as e:
    print('Error in', e.filename, 'Row/Col', e.line, e.column, '->', e.message)
except NetplanException as e:
    print('Error:', e.message)

# Walk through ethernet NetdefIDs in the state and print their backend
# renderer, to demonstrate working with NetDefinitionIterator &
# NetDefinition
for netdef in state.ethernets.values():
    print('Netdef', netdef.id, 'is managed by:', netdef.backend)
    print('Is it configured to use DHCP?', netdef.dhcp4 or netdef.dhcp6)

Changelog:

Bug fixes:

A declarative approach to Linux networking with Netplan

Photo by Taylor Vick (Unsplash)

Linux networking can be confusing due to the wide range of technology stacks and tools in use, in addition to the complexity of the surrounding network environment. The configuration of bridges, bonds, VRFs or routes can be done programmatically, declaratively, manually or with automated with tools like ifupdown, ifupdown2, ifupdown-ng, iproute2, NetworkManager, systemd-networkd and others. Each  of these tools use different formats and locations to store their configuration files. Netplan, a utility for easily configuring networking on a Linux system, is designed to unify and standardise how administrators interact with these underlying technologies. Starting from a YAML description of the required network interfaces and what each should be configured to do, Netplan will generate all the necessary configuration for your chosen tool.

In this article, we will provide an overview of how Ubuntu uses Netplan to manage Linux networking in a unified way. By creating a common interface across two disparate technology stacks, IT administrators benefit from a unified experience across both desktops and servers whilst retaining the unique advantages of the underlying tech.

But first, let’s start with a bit of history and show where we are today.

The history of Netplan in Ubuntu

Starting with Ubuntu 16.10 and driven by the need to express network configuration in a common way across cloud metadata and other installer systems, we had the opportunity to switch to a network stack that integrates better with our dependency-based boot model. We chose systemd-networkd on server installations for its active upstream community and because it was already part of Systemd and therefore included in any Ubuntu base installation. It has a much better outlook for the future, using modern development techniques, good test coverage and CI integration, compared to the ifupdown tool we used previously. On desktop installations, we kept using NetworkManager due to its very good integration with the user interface.

Having to manage and configure two separate network stacks, depending on the Ubuntu variant in use, can be confusing, and we wanted to provide a streamlined user experience across any flavour of Ubuntu. Therefore, we introduced Netplan.io as a control layer above systemd-networkd and NetworkManager. Netplan takes declarative YAML files from /etc/netplan/ as an input and generates corresponding network configuration for the relevant network stack backend in /run/systemd/network/ or /run/NetworkManager/ depending on the system configuration. All while keeping full flexibility to control the underlying network stack in its native way if need be.

Design overview (netplan.io)

Who is using Netplan?

Recent versions of Netplan are available and ready to be installed on many distributions, such as Ubuntu, Fedora, RedHat Enterprise Linux, Debian and Arch Linux.

Ubuntu

As stated above, Netplan has been installed by default on Ubuntu systems since 2016 and is therefore being used by millions of users across multiple long-term support versions of Ubuntu (18.04, 20.04, 22.04) on a day-to-day basis. This covers Ubuntu server scenarios primarily, such as bridges, bonding, VLANs, VXLANs, VRFs, IP tunnels or WireGuard tunnels, using systemd-networkd as the backend renderer.

On Ubuntu desktop systems, Netplan can be used manually through its declarative YAML configuration files, and it will handle those to configure the NetworkManager stack. Keep reading to get a glimpse of how this will be improved through automation and integration with the desktop stack in the future.

Cloud

It might not be as obvious, but many people have been using Netplan without knowing about it when configuring a public cloud instance on AWS, Google Cloud or elsewhere through cloud-init. This is because cloud-init’s “Networking Config Version 2” is a passthrough configuration to Netplan, which will then set up the underlying network stack on the given cloud instance. This is why Netplan is also a key package on the Debian distribution, for example, as it’s being used by default on Debian cloud images, too.

Our vision for Linux networking

We know that Linux networking can be a beast, and we want to keep simple things simple. But also allow for custom setups of any complexity. With Netplan, the day-to-day networking needs are covered through easily comprehensible and nicely documented YAML files, that describe the desired state of the local network interfaces, which will be rendered into corresponding configuration files for the relevant network stack and applied at (re-)boot or at runtime, using the “netplan apply” CLI. For example /etc/netplan/lan.yaml:

network:
  version: 2
  renderer: networkd
  ethernets:
    enp3s0:
      dhcp4: true

Having a single source of truth for network configuration is also important for administrators, so they do not need to understand multiple network stacks, but can rely on the declarative data given in /etc/netplan/ to configure a system, independent of the underlying network configuration backend. This is also very helpful to seed the initial network configuration for new Linux installations, for example through installation systems such as Subiquity, Ubuntu’s desktop installer or cloud-init across the public and private clouds.

In addition to describing and applying network configuration, the “netplan status” CLI can be used to query relevant data from the underlying network stack(s), such as systemd-networkd, NetworkManager or iproute2, and present them in a unified way.

Netplan status (Debian)

At the Netplan project we strive for very high test automation and coverage with plenty of unit tests, integration tests and linting steps, across multiple Linux distros, which gives high confidence in also supporting more advanced networking use cases, such as Open vSwitch or SR-IOV network virtualization, in addition to normal wired (static IP, DHCP, routing), wireless (e.g. wwan modems, WPA2/3 connections, WiFi hotspot, controlling the regulatory domain, …) and common server scenarios.

Should there ever be a scenario that is not covered by Netplan natively, it allows for full flexibility to control the underlying network stack directly through systemd override configurations or NetworkManager passthrough settings in addition to having manual configuration side-by-side with interfaces controlled through Netplan.

The future of Netplan desktop integration

On workstations, the most common scenario is for end users to configure NetworkManager through its user interface tools, instead of driving it through Netplan’s declarative YAML files, which makes use of NetworkManager’s native configuration files. To avoid Netplan just handing over control to NetworkManager on such systems, we’re working on a bidirectional integration between NetworkManager and Netplan to further improve the “single source of truth” use case on Ubuntu desktop installations.

Netplan is shipping a “libnetplan” library that provides an API to access Netplan’s parser and validation internals, that can be used by NetworkManager to write back a network interface configuration. For instance, configuration given through NetworkManager’s UI tools or D-Bus API can be exported to Netplan’s native YAML format in the common location at /etc/netplan/. This way, administrators just need to care about Netplan when managing a fleet of Desktop installations. This solution is currently being used in more confined environments, like Ubuntu Core, when using the NetworkManager snap, and we will deliver it to generic Ubuntu desktop systems in 24.04 LTS.

In addition to NetworkManager, libnetplan can also be used to integrate with other tools in the networking space, such as cloud-init for improved validation of user data or installation systems when seeding new Linux images.

Conclusion

Overall, Netplan can be considered to be a good citizen within a network environment that plays hand-in-hand with other networking tools and makes it easy to control modern network stacks, such as systemd-networkd or NetworkManager in a common, streamlined and declarative way. It provides a “single source of truth” to network administrators about the network state, while keeping simple things simple, but allowing for arbitrarily complex custom setups.
If you want to learn more, feel free to follow our activities on Netplan.io, GitHub, Launchpad, IRC or our Netplan Developer Diaries blog on discourse.

Karrierepfade im Bereich IT-Testing: Welche Möglichkeiten stehen Ihnen offen?

Karrierepfade im Bereich IT-Testing bieten Ihnen zahlreiche Möglichkeiten, um in der sich ständig weiterentwickelnden Welt der Software- und Hardware-Technologie Fuß zu fassen. Als jemand, der an diesen Bereichen interessiert ist, fragen Sie sich vielleicht, welche Karrieremöglichkeiten Ihnen offenstehen und wie Sie Ihre Fähigkeiten und Interessen am besten nutzen können.

Ein vielversprechender Karriereweg im IT-Testing ist die Rolle des Software-Testers. Hier haben Sie die Chance, sowohl manuelles Testing als auch Testautomatisierung und Qualitätssicherung zu beherrschen. Durch die Kombination von technischem Fachwissen und analytischen Fähigkeiten tragen Sie dazu bei, die Funktionalität und Zuverlässigkeit von Softwarelösungen sicherzustellen.

Für diejenigen, die gerne in leitenden Positionen arbeiten, bietet der Karrierepfad des Testmanagers spannende Möglichkeiten. Als Testmanager koordinieren Sie das Testing-Team, entwickeln Teststrategien und optimieren den gesamten Testprozess. Hier geht es darum, ein tiefes Verständnis für das Projektmanagement und die Anforderungen an die Qualitätssicherung zu entwickeln.

Darüber hinaus eröffnen sich im IT-Testing auch verschiedene Spezialisierungsmöglichkeiten. Dazu gehören beispielsweise Performance-Testing, Sicherheitstests und andere Bereiche, in denen spezifisches Wissen und Fachkenntnisse gefragt sind.

Software-Tester: Von manuellem Testing zu Testautomatisierung und Qualitätssicherung

Als Software-Tester stehen Ihnen spannende Karrierepfade offen, die von manuellem Testing über Testautomatisierung bis hin zur Qualitätssicherung reichen. Diese verschiedenen Bereiche ermöglichen es Ihnen, Ihre Fähigkeiten und Expertise weiterzuentwickeln und eine wertvolle Rolle in der Softwareentwicklung zu spielen.

Beim manuellen Testing überprüfen Sie Software manuell auf Funktionalität, Benutzerfreundlichkeit und Fehler. Sie testen die Anwendungen auf verschiedenen Plattformen und stellen sicher, dass sie den Anforderungen und Spezifikationen entsprechen. Dabei kommen Ihre analytischen Fähigkeiten und Ihre Detailgenauigkeit zum Einsatz.

Mit der zunehmenden Automatisierung in der Softwareentwicklung gewinnt auch die Testautomatisierung an Bedeutung. Hier nutzen Sie spezielle Tools und Skripte, um wiederholbare Testfälle zu automatisieren und so den Testprozess effizienter zu gestalten. Das ermöglicht Ihnen, sich auf anspruchsvollere Testaufgaben zu konzentrieren und die Testabdeckung zu verbessern.

Als Software-Tester haben Sie auch die Möglichkeit, sich auf Qualitätssicherung zu spezialisieren. In diesem Bereich entwickeln Sie Teststrategien und -prozesse, um sicherzustellen, dass die Software den höchsten Qualitätsstandards entspricht. Sie überwachen die Testergebnisse, analysieren Defekte und arbeiten eng mit Entwicklern zusammen, um Qualitätsprobleme zu identifizieren und zu beheben.

Testmanager: Das Team koordinieren, Strategien entwickeln und den Testprozess optimieren

Als Testmanager haben Sie die Möglichkeit, das Testing-Team zu koordinieren, Teststrategien zu entwickeln und den gesamten Testprozess zu optimieren. Diese verantwortungsvolle Rolle ermöglicht es Ihnen, eine Schlüsselposition einzunehmen und einen wesentlichen Beitrag zur Qualitätssicherung in der Softwareentwicklung zu leisten.

Ihre Aufgaben als Testmanager umfassen:

  1. Teamkoordination: Sie sind verantwortlich für die Zuweisung von Aufgaben, die Überwachung des Fortschritts und die Gewährleistung einer effizienten Zusammenarbeit im Team. Durch klare Kommunikation und Führungskompetenz fördern Sie eine produktive Arbeitsumgebung.
  2. Strategieentwicklung: Sie entwickeln Teststrategien und -pläne, um sicherzustellen, dass alle relevanten Aspekte der Software getestet werden. Dabei berücksichtigen Sie die Anforderungen, Risiken und Zielsetzungen des Projekts.
  3. Testprozessoptimierung: Sie evaluieren kontinuierlich den Testprozess, identifizieren Engpässe und Schwachstellen und treffen Maßnahmen zur Optimierung. Dies umfasst die Automatisierung von Testabläufen, die Implementierung von effektiven Testmethoden und die Einführung von Qualitätsstandards.
  4. Stakeholder-Management: Sie kommunizieren mit verschiedenen Stakeholdern, einschließlich Entwicklern, Projektmanagern und Kunden, um die Anforderungen zu verstehen und sicherzustellen, dass die Testaktivitäten den Erwartungen entsprechen.

In der Rolle des Testmanagers tragen Sie maßgeblich zur Sicherstellung der Qualität von Softwarelösungen bei. Sie haben die Möglichkeit, das Team zu führen, strategische Entscheidungen zu treffen und den Testprozess zu optimieren, um hochwertige Produkte zu liefern.

Spezialisierungsoptionen im IT-Testing: Performance-Testing, Sicherheitstests und mehr

Als IT-Tester haben Sie eine Vielzahl von Spezialisierungsoptionen, die Ihnen ermöglichen, sich auf bestimmte Bereiche des Testens zu konzentrieren. Eine solche Spezialisierung eröffnet Ihnen neue Karrieremöglichkeiten und erweitert Ihre Fachkenntnisse im IT Tester Job.

Eine wichtige Spezialisierungsmöglichkeit ist das Performance-Testing. Hier liegt der Fokus darauf, die Leistungsfähigkeit einer Softwarelösung unter verschiedenen Belastungsbedingungen zu testen. Sie identifizieren Engpässe, ermitteln die Skalierbarkeit und Leistungsgrenzen und optimieren die Performance, um sicherzustellen, dass die Software den Anforderungen gerecht wird.

Ein weiterer Bereich der Spezialisierung sind Sicherheitstests. Hier liegt der Fokus auf der Identifizierung von Sicherheitslücken, Schwachstellen und Risiken in einer Software. Sie führen Penetrationstests durch, analysieren Sicherheitsarchitekturen und entwickeln Strategien zum Schutz vor potenziellen Bedrohungen.

Weitere Spezialisierungsoptionen im IT-Testing umfassen:

  • Usability-Testing: Hier liegt der Schwerpunkt auf der Benutzerfreundlichkeit und dem Benutzererlebnis einer Softwarelösung.
  • Mobile-App-Testing: Sie spezialisieren sich auf das Testen von mobilen Anwendungen und stellen sicher, dass diese auf verschiedenen Geräten und Plattformen reibungslos funktionieren.
  • Automatisiertes Regressionstesting: Sie entwickeln automatisierte Testskripte, um Regressionstests effizient durchzuführen und die Stabilität der Softwarelösung zu gewährleisten.

Durch eine Spezialisierung im IT-Testing können Sie sich in einem bestimmten Bereich weiterentwickeln und Ihre Expertise gezielt einsetzen. Dies eröffnet Ihnen neue Karrierechancen und ermöglicht es Ihnen, einen Mehrwert für Projekte zu schaffen.

Netplan and systemd-networkd on Debian Bookworm

Debian’s cloud-images are using systemd-networkd as their default network stack in Bookworm. A slim and feature rich networking daemon that comes included with Systemd itself. Debian’s cloud-images are deploying Netplan on top of this as an easy-to-use, declarative control layer.

If you want to experiment with systemd-networkd and Netplan on Debian, this can be done easily in QEMU using the official images. To start, you need to download the relevant .qcow2 Debian cloud-image from: https://cloud.debian.org/images/cloud/bookworm/latest/

$ wget https://cloud.debian.org/images/cloud/bookworm/latest/debian-12-generic-amd64.qcow2

Prepare a cloud image

Next, you need to prepare some configuration files for cloud-init and Netplan, to prepare a data-source (seed.img) for your local cloud-image.

$ cat > meta.yaml <<EOF
instance-id: debian01
local-hostname: cloudimg
EOF
$ cat > user.yaml <<EOF
#cloud-config
ssh_pwauth: true
password: test
chpasswd:
  expire: false
EOF
$ cat > netplan.yaml <<EOF
network:
  version: 2
  ethernets:
    id0:
      match:
        macaddress: "ca:fe:ca:fe:00:aa"
      dhcp4: true
      dhcp6: true
      set-name: lan0
EOF

Once all configuration is prepared, you can create the local data-source image, using the cloud-localds tool from the cloud-image-utils package:

$ cloud-localds --network-config=netplan.yaml seed.img user.yaml meta.yaml

Launch the local VM

Now, everything is prepared to launch a QEMU VM with two NICs and do some experimentation! The following command will launch an ephemeral environment for you, keeping the original Debian cloud-image untouched. If you want to preserve any changes on disk, you can remove the trailing -snapshot parameter.

$ qemu-system-x86_64 \
  -machine accel=kvm,type=q35 \
  -cpu host \
  -m 2G \
  -device virtio-net-pci,netdev=net0,mac=ca:fe:ca:fe:00:aa \
  -netdev user,id=net0,hostfwd=tcp::2222-:22 \
  -nic user,model=virtio-net-pci,mac=f0:0d:ca:fe:00:bb \
  -drive if=virtio,format=qcow2,file=debian-12-generic-amd64.qcow2 \
  -drive if=virtio,format=raw,file=seed.img -snapshot

We set up the default debian user account through cloud-init’s user-data configuration above, so you can now login to the system, using that user with the (very unsafe!) password “test”.

$ ssh -o "StrictHostKeyChecking=no" -o "UserKnownHostsFile=/dev/null" -p 2222 debian@localhost # password: test

Experience Netplan and systemd-networkd

Once logged in successfully, you can execute the netplan status command to check the system’s network configuration, as configured through cloud-init’s netplan.yaml passthrough. So you’ve already used Netplan at this point implicitly and it did all the configuration of systemd-networkd for you in the background!

debian@cloudimg:~$ sudo netplan status -a
     Online state: online
    DNS Addresses: 10.0.2.3 (compat)
       DNS Search: .

●  1: lo ethernet UNKNOWN/UP (unmanaged)
      MAC Address: 00:00:00:00:00:00
        Addresses: 127.0.0.1/8
                   ::1/128
           Routes: ::1 metric 256

●  2: enp0s2 ethernet DOWN (unmanaged)
      MAC Address: f0:0d:ca:fe:00:bb (Red Hat, Inc.)

●  3: lan0 ethernet UP (networkd: id0)
      MAC Address: ca:fe:ca:fe:00:aa (Red Hat, Inc.)
        Addresses: 10.0.2.15/24 (dhcp)
                   fec0::c8fe:caff:fefe:aa/64
                   fe80::c8fe:caff:fefe:aa/64 (link)
    DNS Addresses: 10.0.2.3
           Routes: default via 10.0.2.2 from 10.0.2.15 metric 100 (dhcp)
                   10.0.2.0/24 from 10.0.2.15 metric 100 (link)
                   10.0.2.2 from 10.0.2.15 metric 100 (dhcp, link)
                   10.0.2.3 from 10.0.2.15 metric 100 (dhcp, link)
                   fe80::/64 metric 256
                   fec0::/64 metric 100 (ra)
                   default via fe80::2 metric 100 (ra)

As you can see from this output, the lan0 interface is configured via the “id0” Netplan ID to be managed by systemd-networkd. Compare this data to the netplan.yaml file above, the networkctl output, the local Netplan configuration in /etc/netplan/ and the auto-generated systemd-networkd configuration.

debian@cloudimg:~$ networkctl 
IDX LINK   TYPE     OPERATIONAL SETUP     
  1 lo     loopback carrier     unmanaged
  2 enp0s2 ether    off         unmanaged
  3 lan0   ether    routable    configured

3 links listed.

debian@cloudimg:~$ cat /etc/netplan/50-cloud-init.yaml 
# [...]
network:
    ethernets:
        id0:
            dhcp4: true
            dhcp6: true
            match:
                macaddress: ca:fe:ca:fe:00:aa
            set-name: lan0
    version: 2

debian@cloudimg:~$ ls -l /run/systemd/network/
total 8
-rw-r--r-- 1 root root  78 Jul  5 15:23 10-netplan-id0.link
-rw-r--r-- 1 root root 137 Jul  5 15:23 10-netplan-id0.network

Now you can go ahead and try something more advanced, like link aggregation, using the second NIC that you configured for this QEMU VM and explore all the possibilities of Netplan on Debian, by checking the Netplan YAML documentation.

Netplan 0.106.1 stable release

We are happy to announce that Netplan 0.106.1 is available for download on Ubuntu Mantic Minotaur and Debian testing.

This release includes some improvements in our documentation and CI infrastructure and a number of bug fixes.

What’s new in Netplan 0.106.1?

Documentation

Infrastructure

  • canonical/setup-lxd GitHub action. The autopkgtest environment creation was standardized to use Canonical’s setup-lxd action.
  • Snapd integrations tests with spread. A new test set for the Snapd integration with Netplan was introduced using the spread tool.
  • DBus. A number of DBus integration tests were added to the Debian package.

New features

  • Keyfile parser improvements. Our Network Manager keyfile parser (the capability of loading Network Manager configuration to Netplan YAML) was expanded to support all the types of tunnels supported by Netplan.

Misc

  • Ubuntu’s Code of Conduct 2.0 was added to the code repository.
  • We added a new bash autocompletion script with all the Netplan’s subcommands.
  • The new release package was synchronized with Debian.

Bug fixes

  • Keyfile parser. This release contains a couple of important fixes for the NetworkManager integration stability: 1) adding WPA enterprise connections is now working fine and new test cases were added to the package; 2) a WireGuard peer with allowed IPs that don’t include the network prefix are now accepted.
  • Netplan parser. A number of memory leaks and stability issues were fixed.
  • DBus. An issue related to how directory paths are built in the Netplan DBus service was causing issues in the Snapd integration and was fixed.

For the complete list of changes please consult the debian/changelog file in https://launchpad.net/ubuntu/+source/netplan.io/+changelog

Blockchain in der Softwareentwicklung: Anwendungen jenseits von Kryptowährungen

Die Blockchain-Technologie hat in den letzten Jahren erheblichen Einfluss auf den Sektor der Softwareentwicklung genommen. Meistens kennen Sie Blockchain im Kontext von Kryptowährungen wie Bitcoin und Ethereum. Aber die Technologie bietet weit mehr Möglichkeiten als nur den Bereich der digitalen Währungen. Sie hat das Potenzial, die Art und Weise, wie wir Software entwickeln und nutzen, grundlegend zu verändern. In diesem Artikel werfen wir einen Blick auf die Anwendung von Blockchain in der Softwareentwicklung jenseits von Kryptowährungen. Wir werden die Grundlagen der Blockchain-Technologie erläutern, bevor wir auf ihre Anwendungen in verschiedenen Branchen wie dem Gesundheitswesen und dem Lieferkettenmanagement eingehen. Schließlich beleuchten wir auch die Herausforderungen und ethischen Überlegungen, die mit der Implementierung von Blockchain in der Softwareentwicklung verbunden sind. Begleiten Sie uns auf dieser spannenden Reise durch die Welt der Blockchain.

Die Grundlagen der Blockchain-Technologie: Wie sie die Softwareentwicklung revolutioniert

Um zu verstehen, wie Blockchain die Softwareentwicklung revolutioniert, sollten wir zunächst einen Blick auf die Grundlagen dieser Technologie werfen. Im Kern ist eine Blockchain eine verteilte und dezentrale Datenbank, die Informationen in digitalen Blöcken speichert. Diese Blöcke sind chronologisch und unveränderlich miteinander verknüpft, was eine hohe Sicherheit und Transparenz gewährleistet.

Microsoft Office, das weltweit führende Bürosoftwarepaket, kann als Analogie dienen. Stellen Sie sich vor, anstatt auf einer zentralen Festplatte gespeichert zu werden, würden Ihre Word-Dokumente auf mehreren Computern gleichzeitig gespeichert und ständig synchronisiert. Jede Änderung an einem Dokument würde auf allen Computern gleichzeitig erfolgen. Dies ist ein zentrales Prinzip der Blockchain-Technologie.

Die Blockchain-Technologie bringt folgende Vorteile in die Softwareentwicklung:

  • Dezentralisierung: Es gibt keinen zentralen Punkt des Versagens, was die Systeme robuster macht.
  • Transparenz: Alle Änderungen sind nachvollziehbar und transparent.
  • Sicherheit: Durch die Verschlüsselung und die Verknüpfung der Blöcke ist die Blockchain sehr sicher.

Diese Vorteile haben dazu geführt, dass die Softwareentwicklung auf eine neue Ebene gehoben wird, die über traditionelle Methoden hinausgeht.

Anwendungen von Blockchain in verschiedenen Branchen: Gesundheitswesen, Lieferkettenmanagement und mehr

Die Anwendungen der Blockchain-Technologie gehen weit über Kryptowährungen hinaus und erstrecken sich auf verschiedene Branchen. Ihre inhärente Sicherheit, Transparenz und Dezentralisierung eröffnen immense Möglichkeiten.

Im Gesundheitswesen beispielsweise können Blockchains dazu beitragen, Patientendaten sicher und transparent zu speichern. Alle medizinischen Aufzeichnungen könnten in einer Blockchain gespeichert werden, wodurch Ärzte und medizinisches Personal sofortigen Zugriff auf genaue und aktuelle Informationen hätten. Dies könnte die Patientenversorgung erheblich verbessern.

Im Bereich des Lieferkettenmanagements können Blockchains dazu beitragen, den gesamten Ablauf von der Produktion bis zur Lieferung zu verfolgen. Dies würde:

  • Transparenz für die Verbraucher schaffen, indem sie die Herkunft der Produkte nachverfolgen können.
  • Betrug und Fälschungen minimieren, da jede Änderung in der Kette sofort sichtbar ist.
  • Effizienz steigern, indem Verzögerungen und Engpässe identifiziert werden.

Die Blockchain-Technologie hat das Potenzial, die Art und Weise, wie wir Software nutzen, in vielen Bereichen zu verändern, und ihre Anwendungen nehmen ständig zu.

Die Herausforderungen und ethischen Überlegungen bei der Implementierung von Blockchain in der Softwareentwicklung

Obwohl die Blockchain-Technologie viele Vorteile bietet, gibt es auch Herausforderungen und ethische Überlegungen bei ihrer Implementierung in der Softwareentwicklung. Ein zentrales Problem ist der hohe Energieverbrauch. Da jede Transaktion auf mehreren Computern gleichzeitig verarbeitet wird, kann der Energiebedarf erheblich sein.

Ein weiterer Aspekt sind die Datenschutzbedenken. Während die Transparenz einer Blockchain viele Vorteile hat, erfordert sie auch eine sorgfältige Handhabung der Privatsphäre. Besonders in Branchen wie dem Gesundheitswesen müssen strengste Datenschutznormen eingehalten werden.

Einige der Herausforderungen und ethischen Überlegungen sind:

  • Energieverbrauch: Wie kann die Effizienz der Blockchain verbessert werden, um den Energieverbrauch zu minimieren?
  • Datenschutz: Wie können wir die Transparenz der Blockchain nutzen und gleichzeitig die Privatsphäre der Nutzer schützen?
  • Zugänglichkeit: Wie können wir sicherstellen, dass alle Menschen, unabhängig von technischem Wissen oder Ressourcen, Zugang zu den Vorteilen der Blockchain haben?

Die Auseinandersetzung mit diesen Fragen ist entscheidend für die nachhaltige Integration der Blockchain-Technologie in die Softwareentwicklung.

Innovative Materialien für PC-Gehäuse – Wie leistungsfähig sind sie wirklich?

Innovative Materialien für PC-Gehäuse sind ein wichtiger Aspekt bei der Entwicklung von leistungsfähigen und hochwertigen Computern. Die Wahl des richtigen Materials kann einen großen Einfluss auf die Kühlleistung, die Haltbarkeit und die Gesamtleistung des Systems haben. Während Metalle wie Aluminium und Stahl seit Jahrzehnten in der PC-Gehäusefertigung eingesetzt werden, gibt es heute viele neue Materialien, die eine vielversprechende Zukunft im Gehäusebau versprechen.

Die Verwendung von Kunststoffen als Gehäusematerialien hat in den letzten Jahren deutlich zugenommen, da sie leicht und kosteneffektiv sind. Metallische Verbundwerkstoffe, die aus verschiedenen Materialien wie Aluminium und Kunststoffen hergestellt werden, bieten eine höhere Steifigkeit und sind dennoch leicht und stabil. Titan und Kohlefaser werden auch immer häufiger als Gehäusematerialien eingesetzt, insbesondere in High-End-Systemen.

Trotz der vielen Vorteile, die innovative Materialien bieten können, stellt sich die Frage, wie leistungsfähig sie wirklich sind.

Der Einsatz von Kunststoffen in PC-Gehäusen – Robust und kosteneffizient?

Der Einsatz von Kunststoffgehäusen bei PCs hat in den letzten Jahren stark zugenommen. Kunststoffe bieten viele Vorteile wie beispielsweise Leichtigkeit, Wärmeisolierung und Schallabsorption. Im Vergleich zu herkömmlichen Materialien wie Aluminium oder Stahl sind Kunststoffe auch kosteneffizienter in der Herstellung.

Ein weiterer Vorteil von einem Kunststoffgehäuse ist seine hohe Robustheit. Moderne Kunststoffe wie Polycarbonat und ABS sind sehr widerstandsfähig und bieten Schutz vor äußeren Einflüssen wie Stößen, Kratzern oder Feuchtigkeit. Darüber hinaus sind Kunststoffe auch sehr anpassungsfähig in Bezug auf Form und Farbe. Dies gibt Designern und Herstellern viel Freiheit, um kreative und individuelle Gehäuse-Designs zu entwickeln.

Allerdings gibt es auch einige Herausforderungen beim Einsatz von Kunststoffen in PC-Gehäusen. Zum Beispiel neigen Kunststoffe dazu, sich bei hoher Belastung oder Temperaturen zu verziehen. Dies kann zu unerwünschten Verzerrungen und Rissen im Gehäuse führen. Um diesen Herausforderungen entgegenzuwirken, verwenden einige Hersteller spezielle Materialien und Fertigungstechniken, um die Haltbarkeit und Leistungsfähigkeit von Kunststoff-Gehäusen zu erhöhen.

Metallische Verbundwerkstoffe – Die Zukunft des Gehäusebaus?

Metallische Verbundwerkstoffe sind eine vielversprechende neue Klasse von Materialien, die im Gehäusebau eingesetzt werden können. Sie bestehen aus einer Kombination von Metallen und Polymeren und bieten eine höhere Steifigkeit und Stärke im Vergleich zu herkömmlichen Kunststoffen. Sie sind auch leichter und stabiler als reine Metalle wie Aluminium und Stahl, was bedeutet, dass sie eine bessere Leistung und Haltbarkeit bieten können.

Metallische Verbundwerkstoffe bieten auch eine höhere Wärmeleitfähigkeit als Kunststoffe, was sie zu einer idealen Wahl für Gehäuse macht, die eine hohe Kühlleistung erfordern. Sie bieten auch eine hohe chemische Beständigkeit und sind resistent gegenüber äußeren Einflüssen wie Feuchtigkeit, Stößen und Kratzern. Dadurch sind sie ideal für den Einsatz in rauen Umgebungen oder für den Transport von Systemen geeignet.

Trotz dieser Vorteile gibt es auch Herausforderungen beim Einsatz von metallischen Verbundwerkstoffen im Gehäusebau. Zum Beispiel sind sie oft teurer in der Herstellung als Kunststoffe und erfordern spezielle Fertigungstechniken. Darüber hinaus können sie in einigen Fällen anfälliger für Korrosion und Oxidation sein.

Ein Vergleich von Aluminium und Titan als Materialien für High-End-PC-Gehäuse

Bei der Wahl von Materialien für High-End-PC-Gehäuse sind Aluminium und Titan zwei der am häufigsten verwendeten Optionen. Beide Materialien bieten eine hohe Leistung und sind langlebig, aber es gibt einige Unterschiede, die bei der Auswahl berücksichtigt werden sollten.

Aluminium ist ein leichtes und dennoch robustes Material, das seit Jahren in der Gehäusefertigung eingesetzt wird. Es ist kosteneffektiver als Titan und bietet eine hohe Wärmeableitung, was es ideal für den Einsatz in leistungsfähigen Systemen macht. Aluminium ist auch leichter zu bearbeiten als Titan und kann in einer Vielzahl von Farben und Texturen hergestellt werden.

Titan ist jedoch noch widerstandsfähiger und leichter als Aluminium und bietet eine höhere Korrosionsbeständigkeit. Es ist auch teurer als Aluminium und erfordert spezielle Fertigungstechniken. Titan-Gehäuse haben oft eine polierte Oberfläche und sind in der Regel nur in begrenzten Farben erhältlich.

Containerisierung und Agile Softwareentwicklung: Potentiale, Hindernisse und bewährte Methoden

Die Agile Softwareentwicklung hat die Art und Weise, wie wir Software erstellen und bereitstellen, revolutioniert, indem sie iterative Entwicklungszyklen und eine ständige Feedback-Schleife fördert. Parallel dazu hat die Einführung der Containerisierungstechnologie das Spielfeld verändert und bietet eine Reihe von Vorteilen, die sich hervorragend in das agile Paradigma einfügen.

Chancen der Containerisierung für die Agile Softwareentwicklung

Die Containerisierung hat sich als ein enormer Katalysator für die Agile Softwareentwicklung erwiesen. Sie ermöglicht eine schnelle und flexible Bereitstellung von Anwendungen, indem sie eine isolierte Umgebung bereitstellt, in der Anwendungen unabhängig von der zugrunde liegenden Infrastruktur ausgeführt werden können. Dieser Ansatz unterstützt eine effizientere Nutzung von Ressourcen, fördert die Zusammenarbeit und Integration von Entwicklungs- und Betriebsteams und reduziert die Abhängigkeit von spezifischen Betriebssystemen oder Umgebungen.

Die Containerisierung unterstützt auch die Skalierung und Resilienz von Anwendungen. Durch die Nutzung von Container-Orchestrierungsplattformen wie Kubernetes können Teams Anwendungen schnell und nahtlos auf eine größere Anzahl von Servern oder sogar über verschiedene Cloud-Umgebungen hinweg skalieren. Darüber hinaus erhöht die Fähigkeit von Containern, bei Ausfällen schnell neu zu starten, die Gesamtresilienz des Systems.

Herausforderungen bei der Containerisierung von Anwendungen in der Agile Softwareentwicklung

Trotz der vielfältigen Vorteile stellt die Containerisierung auch eine Reihe von Herausforderungen dar. Eine davon ist die erhöhte Komplexität bei der Verwaltung von Container-Orchestrierung und -Deployment. Kubernetes, eine führende Plattform in diesem Bereich, hat zwar eine beeindruckende Funktionalität, aber auch eine steile Lernkurve und kann komplex in der Handhabung sein.

Die Integration von Container-Plattformen in bestehende Tools und Prozesse kann ebenfalls schwierig sein. Viele traditionelle Entwicklungs- und Bereitstellungstools sind nicht darauf ausgelegt, mit Containern zu arbeiten, und erfordern Anpassungen oder sogar vollständige Überarbeitungen, um effektiv genutzt werden zu können.

Darüber hinaus birgt die Containerisierung potenzielle Sicherheitsrisiken. Containeranwendungen eröffnen neue Angriffsvektoren, und die Fehlkonfiguration von Containern kann zu erheblichen Sicherheitsproblemen führen. Zudem besteht eine Abhängigkeit von der Verfügbarkeit und Stabilität der zugrunde liegenden Infrastruktur, was ein zusätzliches Risiko darstellen kann.

Best Practices für die Verwendung von Containern in der Agile Softwareentwicklung

Trotz dieser Herausforderungen gibt es eine Reihe von bewährten Methoden, die Unternehmen dabei unterstützen können, das Potenzial der Containerisierung voll auszuschöpfen. Dazu gehört das Etablieren von klaren Entwicklungs- und Bereitstellungsprozessen für Containeranwendungen. Diese Prozesse sollten den gesamten Lebenszyklus des Containers abdecken, von der Entwicklung und dem Testing über die Bereitstellung bis hin zum Monitoring und zur Wartung.

Ein weiterer wichtiger Aspekt ist die Automatisierung von Build-, Test- und Bereitstellungsprozessen. Tools wie Jenkins, GitLab CI/CD und Spinnaker können hierbei helfen, die Effizienz zu steigern und menschliche Fehler zu minimieren. Insbesondere in Kombination mit Container-Orchestrierungstools wie Kubernetes kann dies zu einer erheblichen Beschleunigung der Entwicklung und Bereitstellung führen.

In Bezug auf Sicherheitsaspekte sollten Unternehmen robuste Zugriffskontrollen implementieren und Verschlüsselung sowohl für Daten in Ruhe als auch für Daten während der Übertragung einsetzen. Tools zur Erkennung von Sicherheitslücken, wie z.B. Aqua Security und Twistlock, können kontinuierliche Scans von Containerbildern durchführen, um bekannte Schwachstellen zu identifizieren und zu beheben.

Schließlich ist die Überwachung und Protokollierung von Containeranwendungen in Echtzeit von entscheidender Bedeutung. Tools wie Prometheus und Grafana bieten wertvolle Einblicke in die Leistung und den Zustand von Containeranwendungen und ermöglichen es Teams, Probleme schnell zu erkennen und zu beheben.

Netplan v0.106 is now available

I’m happy to announce that Netplan version 0.106 is now available on GitHub and is soon to be deployed into an Ubuntu/Debian/Fedora installation near you! Six months and 65 commits after the previous version, this release is brought to you by 4 free software contributors from around the globe.

Highlights

Highlights of this release include the new netplan status command, which queries your system for IP addresses, routes, DNS information, etc… in addition to the Netplan backend renderer (NetworkManager/networkd) in use and the relevant Netplan YAML configuration ID. It displays all this in a nicely formatted way (or alternatively in machine readable YAML/JSON format).

Furthermore, we implemented a clean libnetplan API which can be used by external tools to parse Netplan configuration, migrated away from non-inclusive language (PR#303) and improved the overall Netplan documentation. Another change that should be noted, is that the match.macaddress stanza now only matches on PermanentMACAddress= on the systemd-networkd backend, as has been the case on the NetworkManager backend ever since (see PR#278 for background information on this slight change in behavior).

Changelog

Bug fixes:

Laptop kaufen: Worauf muss geachtet werden

Ein Laptop ist in der heutigen Zeit für viele Personen ein wichtiger Bestandteil des Alltags geworden. Durch die Digitalisierung werden immer mehr Arbeiten und private Hobbys online ausgeführt. Viele Hersteller und noch mehr Produkte machen die Auswahl schier unendlich. Daher ist es wichtig zu wissen, worauf beim Kauf geachtet werden muss.

Das eigene Nutzungsverhalten kennen

Beim Kauf eines Laptops ist es wichtig, sich zu überlegen, wofür Sie ihn verwenden werden. Wenn Sie ein leistungsstarkes Gerät für Spiele oder Videobearbeitung brauchen, sollten Sie darauf achten, dass es einen schnellen Prozessor und eine gute Grafikkarte hat. Wenn Sie nur im Internet surfen und leichte Textverarbeitungsaufgaben erledigen wollen, können Sie auch mit einem günstigeren Modell auskommen. Es ist auch wichtig, die Größe des Laptops zu bedenken. Wenn Sie vorhaben, ihn häufig auf Reisen mitzunehmen, sollten Sie ein leichtes und tragbares Modell wählen. Wenn Sie ihn jedoch hauptsächlich zu Hause verwenden, können Sie sich für einen größeren Bildschirm entscheiden.

Zusatzkosten bedenken

Wenn Sie einen Laptop kaufen, müssen Sie mögliche Zusatzkosten bedenken, die zusätzlich zum Gerät hinzukommen. Nicht immer ist bereits eine Betriebssoftware installiert, weswegen Sie unter Umständen Windows 11 kaufen müssen. Zudem kann weiteres Zubehör nötig sein. Egal ob Maus, Headset oder externes Laufwerk. Die Kosten können sich schnell summieren und gut und gerne mehrere Hundert Euro betragen. Informieren Sie sich vorab über die bereits inkludierten Softwares und Zusatzgeräte, wenn Sie einen Laptop kaufen wollen.

Laptop und Tablet vereinen

Ein Convertible ist ein Computertyp, der sowohl als herkömmlicher Laptop als auch als Tablet verwendet werden kann. Der Hauptvorteil eines Convertibles besteht darin, dass der Benutzer das Gerät je nach seinen Bedürfnissen auf unterschiedliche Weise nutzen kann. Bei der Arbeit an einem Projekt, bei dem viel getippt werden muss, kann das Gerät beispielsweise in den Laptop-Modus versetzt werden und die Vorteile der Tastatur in voller Größe genutzt werden. Wenn jedoch große Dokumente oder Webseiten angezeigt werden müssen, kann den Bildschirm einfach zurückklappen und das Gerät im Tablet-Modus verwendet werden. Convertibles sind in der Regel auch leichter und kompakter als herkömmliche Laptops, sodass sie bequemer mitgenommen werden können.