NeurIPS 2023: Wichtige Erkenntnisse aus eingeladenen Vorträgen

NeurIPS 2023: Wichtige Erkenntnisse aus eingeladenen Vorträgen

Quellknoten: 3028418

NeurIPS 2023-Vorträge

Generiert mit Midjourney

Die NeurIPS 2023-Konferenz, die vom 10. bis 16. Dezember in der pulsierenden Stadt New Orleans stattfand, legte einen besonderen Schwerpunkt auf generative KI und große Sprachmodelle (LLMs). Angesichts der jüngsten bahnbrechenden Fortschritte in diesem Bereich war es keine Überraschung, dass diese Themen die Diskussionen dominierten.

Eines der Kernthemen der diesjährigen Konferenz war die Suche nach effizienteren KI-Systemen. Forscher und Entwickler suchen aktiv nach Möglichkeiten, KI zu konstruieren, die nicht nur schneller lernt als aktuelle LLMs, sondern auch über verbesserte Denkfähigkeiten verfügt und gleichzeitig weniger Rechenressourcen verbraucht. Dieses Streben ist von entscheidender Bedeutung im Wettlauf um die Verwirklichung künstlicher allgemeiner Intelligenz (AGI), ein Ziel, das in absehbarer Zukunft zunehmend erreichbar zu sein scheint.

Die eingeladenen Vorträge bei NeurIPS 2023 spiegelten diese dynamischen und sich schnell entwickelnden Interessen wider. Referenten aus verschiedenen Bereichen der KI-Forschung stellten ihre neuesten Errungenschaften vor und boten einen Einblick in die neuesten KI-Entwicklungen. In diesem Artikel gehen wir tiefer in diese Vorträge ein und extrahieren und diskutieren die wichtigsten Erkenntnisse und Erkenntnisse, die für das Verständnis der aktuellen und zukünftigen Landschaften der KI-Innovation unerlässlich sind.

NextGenAI: Der Skalierungswahn und die Zukunft der generativen KI 

In sein VortragBjörn Ommer, Leiter der Computer Vision & Learning Group an der Ludwig-Maximilians-Universität München, erzählte, wie sein Labor zur Entwicklung der stabilen Diffusion kam, einige Lehren, die sie aus diesem Prozess gezogen haben, und die jüngsten Entwicklungen, einschließlich der Frage, wie wir Diffusionsmodelle damit kombinieren können unter anderem Flow Matching, Retrieval Augmentation und LoRA-Approximationen.

Diffusionsmodelle

Die zentralen Thesen:

  • Im Zeitalter der generativen KI haben wir uns vom Fokus auf die Wahrnehmung in Sehmodellen (d. h. Objekterkennung) auf die Vorhersage der fehlenden Teile (z. B. Bild- und Videoerzeugung mit Diffusionsmodellen) verlagert.
  • 20 Jahre lang konzentrierte sich Computer Vision auf Benchmark-Forschung, was dazu beitrug, sich auf die wichtigsten Probleme zu konzentrieren. Bei der generativen KI gibt es keine Benchmarks für die Optimierung, was jedem die Möglichkeit gibt, seinen eigenen Weg zu gehen.
  • Diffusionsmodelle vereinen die Vorteile früherer generativer Modelle, da sie punktebasiert sind, mit einem stabilen Trainingsverfahren und einer effizienten Probenbearbeitung, sind jedoch aufgrund ihrer langen Markov-Kette teuer.
  • Die Herausforderung bei Modellen mit starker Wahrscheinlichkeit besteht darin, dass die meisten Bits in Details gehen, die für das menschliche Auge kaum wahrnehmbar sind, während die Codierung der Semantik, die am wichtigsten ist, nur wenige Bits benötigt. Eine Skalierung allein würde dieses Problem nicht lösen, da die Nachfrage nach Rechenressourcen neunmal schneller wächst als das GPU-Angebot.
  • Die vorgeschlagene Lösung besteht darin, die Stärken von Diffusionsmodellen und ConvNets zu kombinieren, insbesondere die Effizienz von Faltungen zur Darstellung lokaler Details und die Ausdruckskraft von Diffusionsmodellen für weitreichende Kontexte.
  • Björn Ommer schlägt außerdem die Verwendung eines Flow-Matching-Ansatzes vor, um eine hochauflösende Bildsynthese aus kleinen latenten Diffusionsmodellen zu ermöglichen.
  • Ein weiterer Ansatz zur Steigerung der Effizienz der Bildsynthese besteht darin, sich auf die Szenenkomposition zu konzentrieren und gleichzeitig die Retrieval-Augmentation zum Ausfüllen der Details zu verwenden.
  • Schließlich stellte er den iPoke-Ansatz für die kontrollierte stochastische Videosynthese vor.

Wenn dieser ausführliche Inhalt für Sie nützlich ist, abonnieren Sie unsere KI-Mailingliste benachrichtigt werden, wenn wir neues Material veröffentlichen. 

​Die vielen Gesichter verantwortungsvoller KI 

In ihr VortragLora Aroyo, Forschungswissenschaftlerin bei Google Research, wies auf eine wesentliche Einschränkung traditioneller Ansätze des maschinellen Lernens hin: ihre Abhängigkeit von der binären Kategorisierung von Daten als positive oder negative Beispiele. Diese übermäßige Vereinfachung, so argumentierte sie, übersehe die komplexe Subjektivität, die realen Szenarien und Inhalten innewohne. Anhand verschiedener Anwendungsfälle zeigte Aroyo, wie inhaltliche Mehrdeutigkeit und die natürliche Varianz menschlicher Standpunkte oft zu unvermeidlichen Meinungsverschiedenheiten führen. Sie betonte, wie wichtig es sei, diese Meinungsverschiedenheiten als bedeutungsvolle Signale und nicht als bloßen Lärm zu behandeln.

verantwortliche KI

Hier sind die wichtigsten Erkenntnisse aus dem Vortrag:

  • Meinungsverschiedenheiten zwischen menschlichen Laboren können produktiv sein. Anstatt alle Antworten entweder als richtig oder falsch zu behandeln, führte Lora Aroyo „Wahrheit durch Meinungsverschiedenheit“ ein, einen Ansatz der Verteilungswahrheit zur Beurteilung der Zuverlässigkeit von Daten durch Nutzung der Meinungsverschiedenheiten der Bewerter.
  • Die Datenqualität ist selbst mit Experten schwierig, da Experten ebenso unterschiedlicher Meinung sind wie Crowd-Lab-Leute. Diese Meinungsverschiedenheiten können viel informativer sein als die Antworten eines einzelnen Experten.
    • Bei Sicherheitsbewertungsaufgaben sind sich Experten in 40 % der Beispiele uneinig. Anstatt zu versuchen, diese Meinungsverschiedenheiten zu lösen, müssen wir mehr solcher Beispiele sammeln und sie zur Verbesserung der Modelle und Bewertungsmetriken nutzen.
  • Lora Aroyo präsentierte auch ihre Sicherheit mit Vielfalt Methode zur Untersuchung der Daten im Hinblick darauf, was darin enthalten ist und wer sie mit Anmerkungen versehen hat.
    • Diese Methode erzeugte einen Benchmark-Datensatz mit Variabilität in der LLM-Sicherheitsbeurteilung über verschiedene demografische Gruppen von Bewertern hinweg (insgesamt 2.5 Millionen Bewertungen).
    • Bei 20 % der Gespräche war es schwierig zu entscheiden, ob die Chatbot-Antwort sicher oder unsicher war, da etwa gleich viele Befragte sie als sicher oder unsicher bezeichneten.
  • Die Vielfalt der Bewerter und Daten spielt bei der Bewertung von Modellen eine entscheidende Rolle. Wenn das breite Spektrum menschlicher Perspektiven und die in den Inhalten vorhandene Mehrdeutigkeit nicht berücksichtigt werden, kann dies dazu führen, dass die Leistung des maschinellen Lernens nicht mit den Erwartungen der realen Welt in Einklang gebracht wird.
  • 80 % der KI-Sicherheitsbemühungen sind bereits recht gut, aber die restlichen 20 % erfordern eine Verdoppelung der Anstrengungen, um Grenzfälle und alle Varianten im unendlichen Raum der Vielfalt anzugehen.

​Kohärenzstatistiken, selbstgenerierte Erfahrungen und warum junge Menschen viel schlauer sind als aktuelle KI 

In ihr GesprächLinda Smith, eine angesehene Professorin an der Indiana University Bloomington, untersuchte das Thema der Datenknappheit in den Lernprozessen von Säuglingen und Kleinkindern. Sie konzentrierte sich insbesondere auf Objekterkennung und Namenslernen und untersuchte, wie die Statistiken selbst generierter Erfahrungen von Säuglingen potenzielle Lösungen für die Herausforderung der Datenknappheit bieten.

Die zentralen Thesen:

  • Im Alter von drei Jahren haben Kinder die Fähigkeit entwickelt, in verschiedenen Bereichen einmalig zu lernen. In weniger als 16,000 wachen Stunden vor ihrem vierten Geburtstag gelingt es ihnen, über 1,000 Objektkategorien zu lernen, die Syntax ihrer Muttersprache zu beherrschen und die kulturellen und sozialen Nuancen ihrer Umgebung zu absorbieren.
  • Dr. Linda Smith und ihr Team entdeckten drei Prinzipien des menschlichen Lernens, die es Kindern ermöglichen, aus solch spärlichen Daten so viel zu erfassen:
    • Die Lernenden kontrollieren den Input, von Moment zu Moment gestalten und strukturieren sie den Input. Beispielsweise neigen Babys in den ersten Lebensmonaten dazu, eher auf Objekte mit einfachen Kanten zu blicken.
    • Da Babys ihr Wissen und ihre Fähigkeiten ständig weiterentwickeln, folgen sie einem stark eingeschränkten Lehrplan. Die Daten, denen sie ausgesetzt sind, sind auf äußerst bedeutsame Weise organisiert. Beispielsweise verbringen Babys unter 4 Monaten die meiste Zeit damit, in Gesichter zu schauen, etwa 15 Minuten pro Stunde, während sich Babys über 12 Monaten hauptsächlich auf die Hände konzentrieren und diese etwa 20 Minuten pro Stunde beobachten.
    • Lernepisoden bestehen aus einer Reihe miteinander verbundener Erfahrungen. Räumliche und zeitliche Zusammenhänge schaffen Kohärenz, die wiederum die Bildung bleibender Erinnerungen an einmalige Ereignisse ermöglicht. Wenn Kindern beispielsweise eine zufällige Auswahl an Spielzeugen präsentiert wird, konzentrieren sie sich oft auf einige wenige „Lieblingsspielzeuge“. Sie beschäftigen sich mit diesen Spielzeugen nach sich wiederholenden Mustern, was zu einem schnelleren Erlernen der Objekte beiträgt.
  • Vorübergehende (Arbeits-)Erinnerungen bleiben länger bestehen als der sensorische Input. Zu den Eigenschaften, die den Lernprozess verbessern, gehören Multimodalität, Assoziationen, prädiktive Beziehungen und die Aktivierung vergangener Erinnerungen.
  • Für schnelles Lernen benötigen Sie eine Allianz zwischen den Mechanismen, die die Daten generieren, und den Mechanismen, die lernen.
Kleinkinder lernen

​Skizzieren: Kernwerkzeuge, Lernerweiterung und adaptive Robustheit 

Jelani Nelson, Professorin für Elektrotechnik und Informatik an der UC Berkeley, führte das Konzept der Datenskizzen ein – eine speicherkomprimierte Darstellung eines Datensatzes, die dennoch die Beantwortung nützlicher Abfragen ermöglicht. Obwohl der Vortrag recht technisch war, bot er einen hervorragenden Überblick über einige grundlegende Skizzierwerkzeuge, einschließlich der jüngsten Fortschritte.

​Wichtige Erkenntnisse:

  • CountSketch, das zentrale Skizziertool, wurde erstmals im Jahr 2002 eingeführt, um das Problem der „Heavy Hitter“ anzugehen, indem es eine kleine Liste der häufigsten Elemente aus dem gegebenen Elementstrom meldete. CountSketch war der erste bekannte sublineare Algorithmus, der für diesen Zweck verwendet wurde.
  • Zu den zwei Nicht-Streaming-Anwendungen von Heavy Hittern gehören:
    • Interne punktbasierte Methode (IPM), die einen asymptotisch schnellsten bekannten Algorithmus für die lineare Programmierung liefert.
    • HyperAttention-Methode, die sich mit der Rechenherausforderung befasst, die sich aus der wachsenden Komplexität langer Kontexte in LLMs ergibt.
  • Viele neuere Arbeiten konzentrierten sich auf das Entwerfen von Skizzen, die gegenüber adaptiver Interaktion robust sind. Die Hauptidee besteht darin, Erkenntnisse aus der adaptiven Datenanalyse zu nutzen.

Jenseits des Skalierungspanels 

Dieser Tolles Panel über große Sprachmodelle Moderiert wurde Alexander Rush, außerordentlicher Professor an der Cornell Tech und Forscher bei Hugging Face. Zu den weiteren Teilnehmern gehörten:

  • Aakanksha Chowdhery – Forschungswissenschaftlerin bei Google DeepMind mit Forschungsinteressen in den Bereichen Systeme, LLM-Vortraining und Multimodalität. Sie war Teil des Teams, das PaLM, Gemini und Pathways entwickelte.
  • Angela Fan – Forschungswissenschaftlerin bei Meta Generative AI mit Forschungsinteressen in den Bereichen Ausrichtung, Rechenzentren und Mehrsprachigkeit. Sie war an der Entwicklung von Llama-2 und Meta AI Assistant beteiligt.
  • Percy Liang – Professor an der Stanford University, der sich mit der Erforschung von Schöpfern, Open Source und generativen Agenten beschäftigt. Er ist Direktor des Center for Research on Foundation Models (CRFM) in Stanford und Gründer von Together AI.

Die Diskussion konzentrierte sich auf vier Schlüsselthemen: (1) Architekturen und Technik, (2) Daten und Ausrichtung, (3) Bewertung und Transparenz und (4) Ersteller und Mitwirkende.

Hier sind einige der Erkenntnisse aus diesem Panel:

  • Das Training aktueller Sprachmodelle ist nicht grundsätzlich schwierig. Die größte Herausforderung beim Training eines Modells wie Llama-2-7b liegt in den Infrastrukturanforderungen und der Notwendigkeit der Koordination zwischen mehreren GPUs, Rechenzentren usw. Wenn die Anzahl der Parameter jedoch klein genug ist, um das Training auf einer einzelnen GPU zu ermöglichen, Sogar ein Student kann es schaffen.
  • Während autoregressive Modelle normalerweise für die Textgenerierung und Diffusionsmodelle für die Generierung von Bildern und Videos verwendet werden, gab es Experimente mit der Umkehrung dieser Ansätze. Konkret wird im Gemini-Projekt ein autoregressives Modell zur Bildgenerierung verwendet. Es gibt auch Untersuchungen zur Verwendung von Diffusionsmodellen zur Textgenerierung, diese haben sich jedoch noch nicht als ausreichend wirksam erwiesen.
  • Angesichts der begrenzten Verfügbarkeit englischsprachiger Daten für Trainingsmodelle prüfen Forscher alternative Ansätze. Eine Möglichkeit besteht darin, multimodale Modelle auf einer Kombination aus Text, Video, Bildern und Audio zu trainieren, mit der Erwartung, dass die aus diesen alternativen Modalitäten erlernten Fähigkeiten auf Text übertragen werden können. Eine weitere Möglichkeit ist die Nutzung synthetischer Daten. Es ist wichtig zu beachten, dass synthetische Daten häufig mit realen Daten vermischt werden, diese Integration jedoch nicht zufällig erfolgt. Online veröffentlichte Texte werden in der Regel von Menschen kuratiert und bearbeitet, was einen zusätzlichen Mehrwert für das Modelltraining darstellen kann.
  • Open-Foundation-Modelle werden häufig als vorteilhaft für Innovationen, aber potenziell schädlich für die KI-Sicherheit angesehen, da sie von böswilligen Akteuren ausgenutzt werden können. Allerdings argumentiert Dr. Percy Liang, dass offene Modelle auch einen positiven Beitrag zur Sicherheit leisten. Er argumentiert, dass sie durch ihre Zugänglichkeit mehr Forschern die Möglichkeit bieten, KI-Sicherheitsforschung durchzuführen und die Modelle auf potenzielle Schwachstellen zu überprüfen.
  • Heutzutage erfordert die Annotation von Daten deutlich mehr Fachwissen im Annotationsbereich als noch vor fünf Jahren. Wenn KI-Assistenten jedoch in Zukunft die erwartete Leistung erbringen, erhalten wir mehr wertvolle Feedbackdaten von Benutzern, wodurch die Abhängigkeit von umfangreichen Daten von Annotatoren verringert wird.

​Systeme für Basismodelle und Basismodelle für Systeme 

In dieses GesprächChristopher Ré, außerordentlicher Professor am Fachbereich Informatik der Stanford University, zeigt, wie Grundlagenmodelle die von uns gebauten Systeme verändert haben. Er untersucht außerdem, wie man Basismodelle effizient erstellen kann, indem er Erkenntnisse aus der Datenbanksystemforschung nutzt, und diskutiert potenziell effizientere Architekturen für Basismodelle als den Transformer.

Grundmodelle für die Datenbereinigung

Hier sind die wichtigsten Erkenntnisse aus diesem Vortrag:

  • Foundation-Modelle sind wirksam bei der Bewältigung von „Tod durch 1000 Schnitte“-Problemen, bei denen jede einzelne Aufgabe relativ einfach sein mag, die schiere Breite und Vielfalt der Aufgaben jedoch eine erhebliche Herausforderung darstellt. Ein gutes Beispiel hierfür ist das Datenbereinigungsproblem, das LLMs nun viel effizienter lösen helfen können.
  • Da Beschleuniger immer schneller werden, entsteht häufig ein Speicherengpass. Dies ist ein Problem, mit dem sich Datenbankforscher seit Jahrzehnten befassen, und wir können einige ihrer Strategien übernehmen. Beispielsweise minimiert der Flash-Attention-Ansatz den Input-Output-Fluss durch Blockierung und aggressive Fusion: Wann immer wir auf eine Information zugreifen, führen wir so viele Operationen wie möglich daran durch.
  • Es gibt eine neue Klasse von Architekturen, die auf der Signalverarbeitung basieren und insbesondere bei der Verarbeitung langer Sequenzen effizienter sein könnten als das Transformer-Modell. Die Signalverarbeitung bietet Stabilität und Effizienz und legt den Grundstein für innovative Modelle wie S4.

Online-Lernen zur Verstärkung digitaler Gesundheitsinterventionen 

In ihr GesprächSusan Murphy, Professorin für Statistik und Informatik an der Harvard University, präsentierte erste Lösungen für einige der Herausforderungen, denen sie bei der Entwicklung von Online-RL-Algorithmen für den Einsatz bei digitalen Gesundheitsinterventionen gegenüberstehen.

Hier ein paar Erkenntnisse aus der Präsentation:

  • Dr. Susan Murphy besprach zwei Projekte, an denen sie gearbeitet hat:
    • HeartStep, wo Aktivitäten basierend auf Daten von Smartphones und tragbaren Trackern vorgeschlagen wurden, und
    • Oralytics für Mundgesundheitscoaching, bei dem die Interventionen auf Interaktionsdaten basierten, die von einer elektronischen Zahnbürste empfangen wurden.
  • Bei der Entwicklung einer Verhaltensrichtlinie für einen KI-Agenten müssen Forscher sicherstellen, dass diese autonom ist und im breiteren Gesundheitssystem realisierbar ist. Dabei muss sichergestellt werden, dass der Zeitaufwand für das Engagement einer Person angemessen ist und dass die empfohlenen Maßnahmen sowohl ethisch einwandfrei als auch wissenschaftlich plausibel sind.
  • Zu den Hauptherausforderungen bei der Entwicklung eines RL-Agenten für digitale Gesundheitsinterventionen gehört der Umgang mit hohen Lärmpegeln, da die Menschen ihr Leben führen und möglicherweise nicht immer in der Lage sind, auf Nachrichten zu reagieren, selbst wenn sie dies wünschen, sowie die Bewältigung starker, verzögerter negativer Auswirkungen .

Wie Sie sehen, hat NeurIPS 2023 einen erhellenden Einblick in die Zukunft der KI gegeben. Die eingeladenen Vorträge verdeutlichten einen Trend hin zu effizienteren, ressourcenschonenderen Modellen und der Erforschung neuartiger Architekturen jenseits traditioneller Paradigmen.

Genießen Sie diesen Artikel? Melden Sie sich für weitere AI-Forschungsupdates an.

Wir werden Sie informieren, wenn wir weitere zusammenfassende Artikel wie diesen veröffentlichen.

#gform_wrapper_11[data-form-index=”0″].gform-theme,[data-parent-form=”11_0″]{–gform-theme-color-primary: #204ce5;–gform-theme-color-primary-rgb: 32, 76, 229;–gform-theme-color-primary-contrast: #fff;–gform-theme-color-primary-contrast-rgb: 255, 255, 255;–gform-theme-color-primary-darker: #001AB3;–gform-theme-color-primary-lighter: #527EFF;–gform-theme-color-secondary: #fff;–gform-theme-color-secondary-rgb: 255, 255, 255;–gform-theme-color-secondary-contrast: #112337;–gform-theme-color-secondary-contrast-rgb: 17, 35, 55;–gform-theme-color-secondary-darker: #F5F5F5;–gform-theme-color-secondary-lighter: #FFFFFF;–gform-theme-color-outside-control-light: rgba(17, 35, 55, 0.1);–gform-theme-color-outside-control-light-rgb: 17, 35, 55;–gform-theme-color-outside-control-light-darker: rgba(104, 110, 119, 0.35);–gform-theme-color-outside-control-light-lighter: #F5F5F5;–gform-theme-color-outside-control-dark: #585e6a;–gform-theme-color-outside-control-dark-rgb: 88, 94, 106;–gform-theme-color-outside-control-dark-darker: #112337;–gform-theme-color-outside-control-dark-lighter: rgba(17, 35, 55, 0.65);–gform-theme-color-inside-control: #fff;–gform-theme-color-inside-control-rgb: 255, 255, 255;–gform-theme-color-inside-control-contrast: #112337;–gform-theme-color-inside-control-contrast-rgb: 17, 35, 55;–gform-theme-color-inside-control-darker: #F5F5F5;–gform-theme-color-inside-control-lighter: #FFFFFF;–gform-theme-color-inside-control-primary: #204ce5;–gform-theme-color-inside-control-primary-rgb: 32, 76, 229;–gform-theme-color-inside-control-primary-contrast: #fff;–gform-theme-color-inside-control-primary-contrast-rgb: 255, 255, 255;–gform-theme-color-inside-control-primary-darker: #001AB3;–gform-theme-color-inside-control-primary-lighter: #527EFF;–gform-theme-color-inside-control-light: rgba(17, 35, 55, 0.1);–gform-theme-color-inside-control-light-rgb: 17, 35, 55;–gform-theme-color-inside-control-light-darker: rgba(104, 110, 119, 0.35);–gform-theme-color-inside-control-light-lighter: #F5F5F5;–gform-theme-color-inside-control-dark: #585e6a;–gform-theme-color-inside-control-dark-rgb: 88, 94, 106;–gform-theme-color-inside-control-dark-darker: #112337;–gform-theme-color-inside-control-dark-lighter: rgba(17, 35, 55, 0.65);–gform-theme-border-radius: 3px;–gform-theme-font-size-secondary: 14px;–gform-theme-font-size-tertiary: 13px;–gform-theme-icon-control-number: url(“data:image/svg+xml,%3Csvg width=’8′ height=’14’ viewBox=’0 0 8 14′ fill=’none’ xmlns=’http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=’evenodd’ clip-rule=’evenodd’ d=’M4 0C4.26522 5.96046e-08 4.51957 0.105357 4.70711 0.292893L7.70711 3.29289C8.09763 3.68342 8.09763 4.31658 7.70711 4.70711C7.31658 5.09763 6.68342 5.09763 6.29289 4.70711L4 2.41421L1.70711 4.70711C1.31658 5.09763 0.683417 5.09763 0.292893 4.70711C-0.0976311 4.31658 -0.097631 3.68342 0.292893 3.29289L3.29289 0.292893C3.48043 0.105357 3.73478 0 4 0ZM0.292893 9.29289C0.683417 8.90237 1.31658 8.90237 1.70711 9.29289L4 11.5858L6.29289 9.29289C6.68342 8.90237 7.31658 8.90237 7.70711 9.29289C8.09763 9.68342 8.09763 10.3166 7.70711 10.7071L4.70711 13.7071C4.31658 14.0976 3.68342 14.0976 3.29289 13.7071L0.292893 10.7071C-0.0976311 10.3166 -0.0976311 9.68342 0.292893 9.29289Z’ fill=’rgba(17, 35, 55, 0.65)’/%3E%3C/svg%3E”);–gform-theme-icon-control-select: url(“data:image/svg+xml,%3Csvg width=’10’ height=’6′ viewBox=’0 0 10 6′ fill=’none’ xmlns=’http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=’evenodd’ clip-rule=’evenodd’ d=’M0.292893 0.292893C0.683417 -0.097631 1.31658 -0.097631 1.70711 0.292893L5 3.58579L8.29289 0.292893C8.68342 -0.0976311 9.31658 -0.0976311 9.70711 0.292893C10.0976 0.683417 10.0976 1.31658 9.70711 1.70711L5.70711 5.70711C5.31658 6.09763 4.68342 6.09763 4.29289 5.70711L0.292893 1.70711C-0.0976311 1.31658 -0.0976311 0.683418 0.292893 0.292893Z’ fill=’rgba(17, 35, 55, 0.65)’/%3E%3C/svg%3E”);–gform-theme-icon-control-search: url(“data:image/svg+xml,%3Csvg version=’1.1′ xmlns=’http://www.w3.org/2000/svg’ width=’640′ height=’640’%3E%3Cpath d=’M256 128c-70.692 0-128 57.308-128 128 0 70.691 57.308 128 128 128 70.691 0 128-57.309 128-128 0-70.692-57.309-128-128-128zM64 256c0-106.039 85.961-192 192-192s192 85.961 192 192c0 41.466-13.146 79.863-35.498 111.248l154.125 154.125c12.496 12.496 12.496 32.758 0 45.254s-32.758 12.496-45.254 0L367.248 412.502C335.862 434.854 297.467 448 256 448c-106.039 0-192-85.962-192-192z’ fill=’rgba(17, 35, 55, 0.65)’/%3E%3C/svg%3E”);–gform-theme-control-border-color: #686e77;–gform-theme-control-size: var(–gform-theme-control-size-md);–gform-theme-control-label-color-primary: #112337;–gform-theme-control-label-color-secondary: #112337;–gform-theme-control-choice-size: var(–gform-theme-control-choice-size-md);–gform-theme-control-checkbox-check-size: var(–gform-theme-control-checkbox-check-size-md);–gform-theme-control-radio-check-size: var(–gform-theme-control-radio-check-size-md);–gform-theme-control-button-font-size: var(–gform-theme-control-button-font-size-md);–gform-theme-control-button-padding-inline: var(–gform-theme-control-button-padding-inline-md);–gform-theme-control-button-size: var(–gform-theme-control-button-size-md);–gform-theme-control-button-border-color-secondary: #686e77;–gform-theme-control-file-button-background-color-hover: #EBEBEB;–gform-theme-field-page-steps-number-color: rgba(17, 35, 55, 0.8);}

Zeitstempel:

Mehr von TOPBOTS