Method List
-
#== LLM::Message
-
File LLM
-
#all LLM::OpenAI::Files
-
#all LLM::Gemini::Files
-
anthropic LLM
-
#assistant? LLM::Message
-
#assistant_role LLM::Gemini
-
#assistant_role LLM::Ollama
-
#assistant_role LLM::OpenAI
-
#assistant_role LLM::Provider
-
#assistant_role LLM::Anthropic
-
#audio LLM::Provider
-
#audio LLM::OpenAI
-
#audio LLM::Gemini
-
#audio LLM::Response::Audio
-
#body LLM::Response
-
#body LLM::Response::File
-
#bytesize LLM::File
-
#chat LLM::Chat
-
#chat LLM::Provider
-
#chat! LLM::Provider
-
#choices LLM::Response::Completion
-
#complete LLM::Ollama
-
#complete LLM::Provider
-
#complete LLM::Gemini
-
#complete LLM::Anthropic
-
#complete LLM::OpenAI
-
#completion_tokens LLM::Response::Completion
-
#content LLM::Message
-
#create LLM::Gemini::Files
-
#create LLM::OpenAI::Responses
-
#create LLM::OpenAI::Images
-
#create LLM::Gemini::Images
-
#create LLM::OpenAI::Files
-
#create_speech LLM::Gemini::Audio
-
#create_speech LLM::OpenAI::Audio
-
#create_transcription LLM::OpenAI::Audio
-
#create_transcription LLM::Gemini::Audio
-
#create_translation LLM::OpenAI::Audio
-
#create_translation LLM::Gemini::Audio
-
#create_variation LLM::OpenAI::Images
-
#create_variation LLM::Gemini::Images
-
#delete LLM::OpenAI::Files
-
#delete LLM::Gemini::Files
-
#delete LLM::OpenAI::Responses
-
#description LLM::Model
-
#download LLM::Gemini::Files
-
#download LLM::OpenAI::Files
-
#each LLM::Response::FileList
-
#edit LLM::Gemini::Images
-
#edit LLM::OpenAI::Images
-
#embed LLM::Anthropic
-
#embed LLM::Provider
-
#embed LLM::Gemini
-
#embed LLM::OpenAI
-
#embed LLM::VoyageAI
-
#embed LLM::Ollama
-
#embeddings LLM::Response::Embedding
-
#extra LLM::Message
-
#file LLM::Response::DownloadFile
-
#files LLM::Response::FileList
-
#files LLM::OpenAI
-
#files LLM::Gemini
-
#files LLM::Provider
-
#from_hash OpenStruct::FromHash
-
gemini LLM
-
#get LLM::Gemini::Files
-
#get LLM::OpenAI::Files
-
#get LLM::OpenAI::Responses
-
#id LLM::Response::Output
-
#image? LLM::File
-
#images LLM::OpenAI
-
#images LLM::Provider
-
#images LLM::Response::Image
-
#images LLM::Gemini
-
#initialize LLM::Gemini::Files
-
#initialize LLM::Chat
-
#initialize LLM::File
-
#initialize LLM::Error
-
#initialize LLM::Message
-
#initialize LLM::Provider
-
#initialize LLM::Response
-
#initialize LLM::Gemini
-
#initialize LLM::Ollama
-
#initialize LLM::OpenAI
-
#initialize LLM::VoyageAI
-
#initialize LLM::Anthropic
-
#initialize LLM::Gemini::Audio
-
#initialize LLM::OpenAI::Audio
-
#initialize LLM::OpenAI::Files
-
#initialize LLM::Gemini::Images
-
#initialize LLM::OpenAI::Images
-
#initialize LLM::OpenAI::Responses
-
#initialize LLM::VoyageAI::ErrorHandler
-
#input_tokens LLM::Response::Output
-
#inspect LLM::Provider
-
#inspect LLM::Message
-
#inspect LLM::Response::File
-
#inspect LLM::Chat
-
#last_message LLM::Chat
-
#lazy LLM::Chat
-
#lazy? LLM::Chat
-
#messages LLM::Chat
-
#mime_type LLM::File
-
#model LLM::Response::Embedding
-
#model LLM::Response::Output
-
#model LLM::Response::Completion
-
#models LLM::Ollama
-
#models LLM::Anthropic
-
#models LLM::Gemini
-
#models LLM::Provider
-
#models LLM::OpenAI
-
#name LLM::Model
-
ollama LLM
-
openai LLM
-
#output_tokens LLM::Response::Output
-
#outputs LLM::Response::Output
-
#parameters LLM::Model
-
#parse_embedding LLM::VoyageAI::ResponseParser
-
#path LLM::File
-
#prompt_tokens LLM::Response::Completion
-
#raise_error! LLM::VoyageAI::ErrorHandler
-
#res LLM::VoyageAI::ErrorHandler
-
#respond LLM::Provider
-
#respond LLM::Chat
-
#respond! LLM::Provider
-
#response LLM::Error::ResponseError
-
#responses LLM::Provider
-
#responses LLM::OpenAI
-
#role LLM::Message
-
#text LLM::Response::AudioTranscription
-
#text LLM::Response::AudioTranslation
-
#to_b64 LLM::File
-
#to_h LLM::Message
-
#to_json LLM::Model
-
#to_param LLM::Model
-
#total_tokens LLM::Response::Completion
-
#total_tokens LLM::Response::Output
-
#total_tokens LLM::Response::Embedding
-
#urls LLM::Response::Image
-
voyageai LLM
-
#with_io LLM::File