Kategorien
Programmierung Tipps & Tricks

Das Telefonbuch der BUW – neue vCard‑Funktion und verbesserte Suche

Das ZIM macht das Telefonbuch der Bergischen Universität noch nutzerfreundlicher. Seit einiger Zeit können alle Einträge als vCard heruntergeladen werden und die Suchfunktion läuft über die BUW‑API, wodurch eine verbesserte Suche möglich ist.


Was ist eine vCard?

Eine vCard ist ein standardisiertes digitales Visitenkarten‑Format (Dateiendung .vcf). Sie fasst die wichtigsten Kontaktdaten – Namen, Position, E‑Mail, Telefon, Web‑Link usw. – in einer einzigen Datei zusammen. Mit einem Klick lässt sich die vCard in jedes gängige Adressbuch (Outlook, Gmail, das Smartphone‑Kontakte‑App …) importieren – kein mühsames Übertragen von Daten mehr.

Unterstützte Felder im BUW‑Telefonbuch

Beim Export wird die vCard nach dem nachfolgenden Schema aufgebaut:

BEGIN:VCARD
VERSION:3.0
FN: <-- Vollständiger Name
N: <-- Nachname;Vorname;weitere Vornamen;Präfix;Suffix
ORG: <-- Organisation / Abteilung
EMAIL;TYPE=INTERNET,WORK: <-- E‑Mail-Adresse
TEL;TYPE=WORK: <-- Telefon
URL: <-- Persönliche oder institutionelle Webseite
END:VCARD

Beispiel‑vCard – Testdaten

Um zu zeigen, wie das Ergebnis aussieht, haben wir eine fiktive vCard einer klar erkennbaren Persönlichkeit aus der Informatik erstellt (hier: Alan Turing – natürlich nur als Test‑Datensatz). Alle Angaben sind rein illustrativ.

BEGIN:VCARD
VERSION:3.0
FN:Alan Mathison Turing
N:Turing;Alan;Mathison;;
ORG:University of Cambridge;Department of Computer Science;
EMAIL;TYPE=INTERNET,WORK:alan.turing@cam.ac.uk
TEL;TYPE=WORK:+44 1223 337000
URL:http://www.example.com/alan-turing
END:VCARD

Hinweis: Beim wirklichen Einsatz werden natürlich die tatsächlichen Kontaktdaten der jeweiligen Uni‑Mitarbeitenden bzw. Einrichtungen eingebettet – nicht die oben gezeigten Testdaten.

Verbesserte Suche über die BUW‑API

Die interne Suche des Telefonbuchs nutzt jetzt die BUW‑API:

https://zim.uni-wuppertal.de/de/unsere-dienste/buw-api

Durch die Anbindung an die API werden Anfragen direkt weitergeleitet. Das Ergebnis:

  • Kürzere Antwortzeiten – Sie erhalten Treffer fast in Echtzeit.
  • Bessere Trefferqualität – Die API berücksichtigt aktuelle Änderungen sofort.
  • Verbesserte Suche nach Namen mit Umlauten – Die Suche berücksichtigt die verschiedene Schreibweise von Umlauten (oe bzw. ö) in Namen.

Uni-interne vs. weltweit verfügbare Einträge

Wir behalten weiterhin die klare Trennung zwischen:

KategorieWer kann sehen?
Interne EinträgeNur Mitglieder der BUW (Studierende, Mitarbeitende) aus dem Uni-Netz
Weltweit verfügbare EinträgeJeder Internetnutzer

Diese Aufteilung sorgt dafür, dass sensible Daten geschützt bleiben, während gleichzeitig wichtige öffentliche Kontakte schnell gefunden werden können.

Kategorien
Dienste des ZIM KI

Mehr Transparenz in genAI4BUW: Die Modellübersicht als Infozentrale

Für die meisten Nutzer*innen ist die Wahl des richtigen KI‑Modells in vielen Chatoberflächen ein Blindflug: Man klickt auf „Standard“, „schnell“ oder „präzise“ – was dahinter steckt, bleibt oft unklar.

genAI4BUW verfügt über ein Feature um Infos anzuzeigen, die sonst verborgen bleiben: eine detaillierte Modellübersicht. Hier lassen sich Fähigkeiten, Grenzen und Betriebsbedingungen der Modelle auf einen Blick vergleichen.

Die Startseite für alle Modelle

Im Zentrum steht der Titel „Modellübersicht“, darunter drei Reiter:

  • Text
  • Bild
  • Embedding

Im obigen Screenshot ist der Tab „Text“ aktiv – hier finden sich alle textbasierten Chatmodelle. Der Aufbau ist immer gleich: Die Bild- und Embedding‑Modelle werden nach demselben Schema dargestellt.

Rechts oben sitzt ein Button „Glossar“ – ein dezenter, aber wichtiger Hinweis: Wer Begriffe wie „Temperature“, „TopP“ oder „Presence Penalty“ nicht aus dem Effeff kennt, kann sie direkt in der Oberfläche nachschlagen.

Karten statt Dropdown: Wie die Modelle dargestellt werden

Jedes Modell wird als eigene Karte dargestellt, mit einem farbigen Streifen links, der die Modellfamilie markiert. Dies sind derzeit (Stand April 2026):

  • OpenAI GPT (OSS 12B)
  • Mistral (Small 4 119B)
  • GPT 5.1
  • GPT 5‑mini
  • GPT 5‑nano
  • GPT 4.1‑mini

Dieser Aufbau vermeidet kryptische Kürzel in einem Dropdown-Menü. Stattdessen erkennt man sofort:

  • zu welcher Familie ein Modell gehört,
  • ob es sich um ein Open‑Weight‑Modell (z.B. über „Inference NRW“) oder ein kommerzielles Cloud‑Modell (z.B. über Microsoft Azure) handelt,
  • und in welcher Region es betrieben wird – symbolisiert durch Flaggen bzw. Region-Icons.

Gerade für Einrichtungen, die Wert darauf legen müssen, wo und wie ihre Daten verarbeitet werden sind diese Informationen hilfreich.

Was pro Modell sichtbar ist

Die Karten sind standardisiert. Pro Modell sind u.a. folgende Details zu sehen:

1. Metadaten des Modells

  • Konkreter Modellname
    Etwa gpt-oss-12b-2 oder gpt-5.1.
  • Wissensstand / Stand des Trainings
    Beispielsweise „01.06.2024“. Damit ist klar: Auf welchen Zeitraum spielt das Modell sein Weltwissen zurück?
  • Betreiber
    Etwa Inference NRW oder Microsoft Azure. Für technische Nutzer ist das entscheidend, um Infrastruktur, Latenz und Datenschutz einzuordnen.
  • Region
    Über Flaggen bzw. Symbole visualisiert. So lässt sich erkennen, ob Anfragen im EU‑Kontext verarbeitet werden oder nicht.
  • Wenn ein API Zugriff verfügbar ist:
    Der API Model Name und der zu verwendende Endpunkt, diesen verwenden Entwickler um das Modell in der Programmierung gezielt anzusprechen. Zum Beispiel inferenz-gpt-oss-120b sowie v1/chat/completions

2. Tokenlimits und I/O‑Kapazität

Prominent platziert ist die Maximalanzahl an Tokens:

  • Input / Output, z.B. 400000 / 128000 Tokens.

In einer Zeit, in der Kontexte mit mehreren hundert Seiten keine Seltenheit mehr sind, ist das kein „Nice to have“, sondern Planungsgrundlage: Wer große Dokumente oder lange Chatverläufe einspeisen will, braucht genau diese Zahlen.

3. Fähigkeiten und Features

Unter „Reasoning“ bzw. in Form von Symbolen werden modellbezogene Fähigkeiten gekennzeichnet, z.B.:

  • erweiterte Reasoning‑Fähigkeiten (z.B. für komplexe Analyseaufgaben),
  • Unterstützung für Tool‑/Function Calling,
  • Streaming‑Unterstützung (Antwort kommt tokenweise).

Ob ein Feature unterstützt wird, ist jeweils klar durch ein Häkchen bzw. ein ausgegrautes Symbol erkennbar. So lässt sich etwa ein „voll ausgestattetes“ GPT‑5.1‑Modell schnell von einer leichteren Mini‑Variante unterscheiden.

4. Steuerparameter für die Ausgabe

Spannend ist, dass klassische Sampling‑Parameter direkt aufgelistet sind:

  • Temperature
  • TopP
  • Presence Penalty
  • Frequency Penalty

5. Zugangswege: Frontend vs. API

Am unteren Rand jeder Karte steht:

  • „Nutzung über: Frontend | API“

Damit ist sofort klar, ob ein Modell nur im Chat-Frontend zur Verfügung steht oder auch über eine Programmierschnittstelle. Für Entwickler bedeutet das: Die UI ist nicht Endpunkt, sondern Schaufenster für die zugrundeliegende Plattform.

Vergleich statt Rätselraten

Der eigentliche Mehrwert der Übersicht liegt in der direkten Vergleichbarkeit:

  • Wer viel Kontext braucht, sieht, dass z.B. GPT‑5.1 und GPT‑5‑mini ähnliche Tokenlimits bieten, während andere Modelle stärker begrenzt sein könnten.
  • Wer besonderen Wert auf On‑Prem‑ oder EU‑nahe Verarbeitung legt, erkennt die Modelle, die über „Inference NRW“ mit Länderflagge laufen – im Gegensatz zu Cloud‑Varianten via Azure.
  • Wer nur einfache, schnelle Antworten benötigt, kann gezielt zu „Mini“‑ oder „Nano“‑Modellen greifen, statt unnötig große und teure Modelle einzusetzen.

Fazit

Die hier gezeigte Modellübersicht holt etwas an die Oberfläche, das in vielen KI‑Chats im Verborgenen bleibt: die innere Vielfalt der Modelle, auf denen der Assistent tatsächlich läuft. Statt „eine KI“ gibt es hier eine klar kuratierte Palette von Modellen, jedes mit eigenem Profil, klaren Grenzen und dokumentierten Fähigkeiten.

Kategorien
KI Programmierung Tipps & Tricks

genAI4BUW in VS Code mit Continue nutzen: eine Schritt-für-Schritt-Anleitung

Die Integration von KI-Modellen in die eigene Entwicklungsumgebung wird immer einfacher. Mit genAI4BUW steht Studierenden und Mitarbeitenden der Bergischen Universität Wuppertal eine leistungsstarke Plattform zur Verfügung, die verschiedene Open-Source-KI-Modelle anbietet. Besonders praktisch: Über die Continue-Extension für VS Code lassen sich diese Modelle direkt in den Code-Editor einbinden – ideal für Chat und Zusammenfassungen.

1. Vorbereitung: API-Key generieren

Bevor du genAI4BUW in VS Code nutzen kannst, benötigst du einen API-Key. Dieser wird über die Plattform bereitgestellt. So geht’s:

  1. Anmeldung: Logge dich mit deiner Uni-Kennung auf der genAI4BUW-Seite ein.
  2. API-Key generieren: Folge der Anleitung unter Neue freie Modelle für genAI4BUW – API-Zugang, um deinen persönlichen API-Schlüssel zu erstellen.
  3. Key sichern: Kopiere den generierten API-Key und bewahre ihn sicher auf. Du wirst ihn später in der Continue-Konfiguration benötigen.

2. Continue-Extension installieren

Die Continue-Extension ist der Schlüssel zur Integration von genAI4BUW in VS Code. Installiere sie direkt über den Visual Studio Marketplace oder suche in VS Code nach „Continue“ und installiere die Extension.

3. Konfiguration der Continue-Extension

Nach der Installation musst du Continue so konfigurieren, dass es mit genAI4BUW kommuniziert. Erstelle oder bearbeite die Konfigurationsdatei config.json in deinem VS Code-Projekt. Füge folgende Einstellungen hinzu:

{
  "name": "genAI4BUW",
  "version": "1.0.3",
  "schema": "v1",
  "models": [
    {
      "name": "Mistral Small 4 119B – Coding",
      "provider": "openai",
      "model": "inferenz-mistral-small-4-119b",
      "apiBase": "https://chat.kiconnect.nrw/api/v1",
      "apiKey": "DEIN_API_KEY",
      "roles": [
        "chat",
        "summarize"
      ],
      "defaultCompletionOptions": {
        "temperature": 0.1,
        "topP": 0.8
      }
    },
    {
      "name": "GPT OSS 120B – General Reasoning",
      "provider": "openai",
      "model": "inferenz-gpt-oss-120b",
      "apiBase": "https://chat.kiconnect.nrw/api/v1",
      "apiKey": "DEIN_API_KEY",
      "roles": [
        "chat",
        "summarize"
      ],
      "defaultCompletionOptions": {
        "temperature": 0.2,
        "topP": 0.8
      }
    }
  ]
}

Wichtig: Ersetze DEIN_API_KEY mit deinem tatsächlichen genAI4BUW-API-Key.

4. Funktionen nutzen

Mit dieser minimal Konfiguration kannst du genAI4BUW in VS Code für folgende Funktionen nutzen:

  • Chat: Stelle Fragen direkt im Editor und erhalte Antworten basierend auf den ausgewählten Modellen.
  • Zusammenfassungen: Lass dir Code oder Texte zusammenfassen, um schneller den Überblick zu behalten.

Hinweis: Aktuell werden nur die Rollen chat und summarize unterstützt! Funktionen wie apply, autocomplete und edit sind zurzeit noch nicht verfügbar, sollen aber zu einem späteren Zeitpunkt folgen.

5. Verfügbare Modelle nutzen

genAI4BUW bietet aktuell folgende KI-Modelle an:

Modell-IDBeschreibung
inferenz-gpt-oss-120bFür allgemeines Reasoning
inferenz-qwen3-embedding-8bFür Embeddings
inferenz-e5-mistral-7b-instructFür instruktionsbasierte Aufgaben
inferenz-mistral-small-4-119bFür Coding und Chat

Aktuell sind in der Continue-Extension für VS Code nur die beiden Modelle „Mistral Small 4 119B – Coding“ und „GPT OSS 120B – General Reasoning“ sinnvoll. Diese können zur Zeit nur für Chat und Zusammenfassungen verwendet werden!

6. Fazit

Die Kombination aus genAI4BUW und Continue bietet eine flexible und datenschutzfreundliche Möglichkeit, KI direkt in den Entwicklungsprozess zu integrieren. Besonders für Entwickler:innen, die auf Open-Source-Lösungen setzen, ist dies eine spannende Alternative zu kommerziellen Angeboten.

Wichtig: Aktuell unterstützt genAI4BUW nur die Funktionen Chat und Zusammenfassungen! Funktionen wie apply, autocomplete und edit sind derzeit noch nicht verfügbar und werden voraussichtlich zu einem späteren Zeitpunkt nachgerüstet.

Tipp: Für weitere Informationen zur Continue-Extension besuche die offizielle Dokumentation.

Kategorien
Allgemein Moodle Out of office

Moodle-Hochschultreffen 2026 – zwischen bewährter Praxis und neuen Impulsen

Anfang März war es wieder so weit: Das alljährliche Hochschultreffen des Vereins Moodle an Hochschulen e.V. hat vom 2.- 4. März stattgefunden. Die Technische Hochschule Rosenheim lud 146 Teilnehmende nach Bayern ein, um in 31 Sessions über Neuerungen, Best-Practice-Modelle, E-Assessment-Ansätze und didaktische Möglichkeiten des Lern-Management-Systems zu diskutieren.

Gruppenfoto Hochschultreffen.
Moodle Hochschultreffen 2026 | Foto: Felix Huber

Auch unsere Mitarbeitenden vom Kompetenzzentrum Moodle.NRW, Jasmin vom Brocke, Frank von Danwitz und Valerie Hindenburg nahmen den weiten Weg nach Bayern auf sich, um in zwei Sessions Ergebnisse aus der Projekt- und Vereinsarbeit zu präsentieren.
Am ersten Konferenztag stellte Valerie Hindenburg gemeinsam mit ihrer Kollegin Laura Schaffeld (UDE) Sensibilisierungs- und Informationsmaterialien zur Barrierefreiheit in Moodle vor. Die Materialien sollen insbesondere Lehrende und andere kurserstellende Personen niedrigschwellig für Barrieren in Moodle sensibilisieren und Hilfestellung geben, wie sich diese vermeiden lassen. Neben dem neu entwickelten Material wurde auch auf die Checklisten des Kompetenzzentrums für Digitale Barrierefreiheit.nrw verwiesen. Diese können als Hilfestellung bei der Erstellung von Word-Dokumenten, Formularen oder PowerPoint-Präsentationen verwendet werden.

Wussten Sie schon? Auch unsere Moodle-Hilfe bietet konkret Hilfestellung zur barrierefreien Kursraumgestaltung.

Im Anschluss an den ersten Konferenztag fand die Jahreshauptversammlung des Vereins Moodle an Hochschulen statt. Zum Ausklang des ersten Tags wurde das Programm am Abend durch eine Brauerei-Führung der Brauerei Flötzinger und das Konferenz-Dinner auf Selbstzahlerbasis gerahmt. Bei diesem konnten die Gespräche der Konferenz wieder aufgenommen und auch neue Kontakte geknüpft werden.

Am zweiten Tag begleitete Jasmin vom Brocke die Session zur Vorstellung der neuen Vereins-Knowledge Base. Es handelt sich dabei um eine Wissenssammlung für Administrator*innen, Multiplikator*innen und Support-Mitarbeitende. Auf der Webseite der Knowledge-Base soll künftig das gesammelte Wissen der deutschsprachigen Moodle-Community zu finden sein. In der Session wurde unter anderem der derzeitige Stand vorgestellt, als auch über die Möglichkeiten zur Mitwirkung und der Redaktion und zum Review der Beiträge diskutiert.

Foto eines Hörsaals. Die Reihen sind mit Teilnehmenden des Hochschultreffens gefüllt. Diese Blicken entspannt nach vorne.
Foto: Felix Huber

Neben den Beiträgen der Moodle.NRW-Mitarbeitenden fanden auch Themen wie KI in Moodle, die Bereitstellung von Kurs-Templates, Plugin-Vorstellungen und Learning Analytics großen Anklang.
Zum Abschluss der Konferenz wurde der Staffelstab an die Technische Universität Dortmund weitergegeben, die im kommenden März das nächste Hochschultreffen ausrichten wird.

Wie jedes Jahr war es wieder eine fachlich-ansprechende und inspirierende Konferenz, die von der Gastfreundschaft der Rosenheimer gerahmt wurde.

Kategorien
Dienste des ZIM Geräteausleihe Lehren und Lernen

Angebote des ZIM für Tagungen und Konferenzen an der BUW

Zeichnung von einem Strichmännchen am Rednerpult

Ob Fachkonferenz, Schüler*innenbesuch, kleiner Workshop oder große Tagung – das ZIM sorgt für optimale (medien-)technische Rahmenbedingungen, damit Ihre Veranstaltung reibungslos läuft.

WLAN für alle

Teilnehmende brauchen Internetzugang, um Inhalte und Informationen zur Veranstaltung online mitzuverfolgen, herunterzuladen oder online zu diskutieren. Dazu können sie während ihres Aufenthalts das WLAN der Bergischen Universität nutzen:

  • Angehörige anderer Hochschulen aus ganz Deutschland, der EU und teilnehmender internationaler Bildungs- und Forschungseinrichtungen loggen sich ganz einfach per eduroam ins WLAN ein.
  • Für alle weiteren Gäste Ihrer Veranstaltung können Sie vorab einen Tagungsaccount beantragen.

Medientechnik im Hörsaal

In vielen Hörsälen stehen Ihnen Beamer sowie ein Smartboard mit Zoom-Software und interaktivem Display (Stift- und Touchfunktion), Webcam und Mikrofon zur Verfügung.
Eigene Geräte lassen sich in allen Hörsälen selbstverständlich auch anschließen. Passende Kabel und Adapter bringen Sie selbst mit oder leihen Sie sich ganz einfach in unserer Geräteausleihe ↓ aus.

Geräteausleihe

Für Hörsäle, die noch nicht ganz so gut ausgestattet sind, und andere (Seminar-)Räume finden Sie in unserer Geräteausleihe alles, um Ihre Veranstaltung vor Ort oder auch hybrid durchzuführen: Tablets und Notebooks, passende Adapter, Beamer, Videokonferenzsysteme, Mikrofone und und und.

Zusammenarbeit und Interaktion im Hörsaal oder digital

Neben der technischen Ausstattung bietet das ZIM auch Online-Tools zum gemeinsamen Arbeiten und zur Interaktion mit den Gästen an:

  • Über das Audience-Response-Tool Particify können Sie z. B. Umfragen, Wortwolken oder ein Q-&-A-Forum erstellen, an denen sich alle Teilnehmenden (ohne Anmeldung) via Smartphone oder Laptop beteiligen können.
  • Mit Zoom-Whiteboards können Sie Inhalte nicht nur präsentieren, sondern auch gemeinsam erstellen und bearbeiten.
  • Weitere Tools für Ihre Zwecke finden Sie auf unserer Website.

Besondere Veranstaltungen

Falls die Veranstaltung mal größer oder außergewöhnlich wird: Unsere Medienproduktion bietet mit dem Event Service individuelle Beratung und umfangreiches Equipment für die verschiedensten Events an.


Noch Fragen?

Sollte dann doch mal etwas nicht funktionieren, Sie brauchen Beratung oder Unterstützung bei der Bedienung ausgeliehener Geräte, dann helfen Ihnen unsere Kolleg*innen der Benutzerberatung / Geräteausleihe und des Hörsaalsupports in den Kernzeiten von 09:00 bis 16:00 (Fr. bis 15:00) Uhr gerne persönlich weiter.