GPT-4 mit Vision verfügbar

In den KI-Plugin-Einstellungen sehe ich diese Liste von KI-Bots, die ich aktivieren kann:


Ich frage mich, ob der gpt-4-turbo-Bot ‘gpt-4-turbo-preview’ oder ‘gpt-4-vision-preview’ ist.
D. h. hat er Vision?
Wenn es sich um ‘gpt-4-turbo-preview’ handelt, wird dann auch Vision hinzugefügt? Ich denke, das wäre nützlich, da z. B. ein Screenshot dem Bot helfen kann, eine Benutzeranfrage zu verstehen.

Ich kenne die Antwort nicht, und doch ist Vision dasselbe wie 4, es hat viele Probleme und kann problematisch sein. Aber meines Wissens sollte es ein eigenes Modell für Vision geben und Discourse verwendet keinen eigenen Namensstil.

FYI dies wird in Discourse Chatbot 🤖 (für den „Basic“-Modus) unterstützt

1 „Gefällt mir“

(Ohne RAG ist es ein bisschen zahnlos; ansonsten macht es viel Spaß)

2 „Gefällt mir“

Bitte rufen Sie Sam Altman an :phone: , er muss Funktionen zum Vision-Modell hinzufügen.

3 „Gefällt mir“

Derzeit ist gpt-4-turbo == gpt-4-0125-preview, also ohne Vision.

@keegan untersucht hier eine Vision-Integration:

Insbesondere das Hinzufügen von Bildunterschriften zu Bildern über Vision-APIs (sowohl offene als auch geschlossene Modelle)

Ich mag die „Demo“-Möglichkeit wirklich… eine PM mit einem Bot starten, ein Bild hochladen und danach fragen, aber ich muss den Ablauf durchdenken, da wir zwischen den Modellen wechseln müssten.

Vielleicht kann ein Konzept von „Auto-Tool“ hier funktionieren, sodass wir bei einem Upload automatisch zum Tool weiterleiten und dann zurück zum Hauptmodell… ich werde darüber nachdenken.

Technisch gesehen ist die Anbindung in unserer Architektur nicht allzu komplex.

2 „Gefällt mir“

Danke Sam!

Laut Vision - OpenAI API

Vision und Turbo sollten weitgehend gleich sein (bin mir aber nicht sicher, habe es noch nicht gründlich getestet).

1 „Gefällt mir“