Method List
Search:
-
#<< LLM::Buffer
-
#<< LLM::Stream::Queue
-
#== LLM::Schema::Leaf
-
#== LLM::Prompt
-
#== LLM::Message
-
File LLM
-
[] LLM::Schema::Enum
-
[] LLM::Schema::OneOf
-
[] LLM::Schema::AnyOf
-
#[] LLM::Object
-
[] LLM::Schema::AllOf
-
[] LLM::Schema::Array
-
#[] LLM::Buffer
-
#[] LLM::Schema::Object
-
#[]= LLM::Object
-
#[]= LLM::Schema::Object
-
#adapt LLM::Function
-
#add_file LLM::OpenAI::VectorStores
-
#add_file_and_poll LLM::OpenAI::VectorStores
-
#alive? LLM::Function::TaskGroup
-
#alive? LLM::Function::FiberGroup
-
#alive? LLM::MCP::Command
-
#alive? LLM::Function::ThreadGroup
-
#alive? LLM::Function::Task
-
#all LLM::Anthropic::Files
-
#all LLM::OpenAI::VectorStores
-
#all LLM::Google::Files
-
#all LLM::Google::Models
-
#all LLM::Anthropic::Models
-
#all LLM::Ollama::Models
-
#all LLM::OpenAI::Files
-
#all LLM::OpenAI::Models
-
#all_files LLM::OpenAI::VectorStores
-
#all_of LLM::Schema
-
#annotations LLM::Message
-
anthropic LLM
-
#any_of LLM::Schema
-
#arguments LLM::Function
-
#array LLM::Schema
-
#assistant? LLM::Message
-
#assistant_role LLM::Google
-
#assistant_role LLM::Anthropic
-
#assistant_role LLM::Ollama
-
#assistant_role LLM::Provider
-
#assistant_role LLM::OpenAI
-
#audio LLM::DeepSeek
-
#audio LLM::LlamaCpp
-
#audio LLM::XAI
-
#audio LLM::Provider
-
#audio LLM::OpenAI
-
#audio LLM::ZAI
-
#audio LLM::Google
-
#basename LLM::File
-
#body LLM::Response
-
#boolean LLM::Schema
-
#bytesize LLM::File
-
#call LLM::Function
-
#call LLM::Function::Tracing
-
#call LLM::Context
-
#call LLM::Function::Array
-
#call_tool LLM::MCP
-
#called? LLM::Function
-
#cancel LLM::Function
-
#cancelled? LLM::Function
-
#chat LLM::Provider
-
#chat? LLM::Model
-
#clear_registry! LLM::Function::Registry
-
clear_registry! LLM::Tool
-
clients LLM
-
clients LLM::MCP
-
#close LLM::MCP::Pipe
-
#close_reader LLM::MCP::Pipe
-
#close_writer LLM::MCP::Pipe
-
#closed? LLM::MCP::Pipe
-
#complete LLM::Ollama
-
#complete LLM::Anthropic
-
#complete LLM::Google
-
#complete LLM::Provider
-
#complete LLM::OpenAI
-
#concat LLM::Buffer
-
#connection LLM::Provider::Transport::HTTP::Interruptible::Request
-
#const LLM::Schema::Leaf
-
#consume_extra_inputs LLM::Tracer::Langsmith
-
#consume_extra_inputs LLM::Tracer
-
#consume_extra_outputs LLM::Tracer
-
#consume_extra_outputs LLM::Tracer::Langsmith
-
#consume_request_metadata LLM::Tracer
-
#content LLM::Message
-
#content LLM::Contract::Completion
-
#content! LLM::Message
-
#content! LLM::Contract::Completion
-
#context_window LLM::Context
-
#cost LLM::Registry
-
#cost LLM::Context
-
#create LLM::OpenAI::Images
-
#create LLM::OpenAI::Files
-
#create LLM::Anthropic::Files
-
#create LLM::OpenAI::Responses
-
#create LLM::XAI::Images
-
#create LLM::OpenAI::VectorStores
-
#create LLM::OpenAI::Moderations
-
#create LLM::Google::Files
-
#create LLM::Google::Images
-
#create_and_poll LLM::OpenAI::VectorStores
-
#create_speech LLM::OpenAI::Audio
-
#create_speech LLM::Google::Audio
-
#create_transcription LLM::Google::Audio
-
#create_transcription LLM::OpenAI::Audio
-
#create_translation LLM::OpenAI::Audio
-
#create_translation LLM::Google::Audio
-
#create_variation LLM::Google::Images
-
#create_variation LLM::OpenAI::Images
-
#create_variation LLM::XAI::Images
-
#current_extra LLM::Tracer::Langsmith
-
#current_extra LLM::Tracer
-
deepseek LLM
-
#default LLM::Schema::Leaf
-
#default_model LLM::XAI
-
#default_model LLM::DeepSeek
-
#default_model LLM::OpenAI
-
#default_model LLM::Provider
-
#default_model LLM::LlamaCpp
-
#default_model LLM::Ollama
-
#default_model LLM::ZAI
-
#default_model LLM::Anthropic
-
#default_model LLM::Google
-
#define LLM::Function
-
#delete LLM::OpenAI::Files
-
#delete LLM::OpenAI::VectorStores
-
#delete LLM::OpenAI::Responses
-
#delete LLM::Anthropic::Files
-
#delete LLM::Google::Files
-
#delete_file LLM::OpenAI::VectorStores
-
description LLM::Tool
-
#description LLM::Function
-
#description LLM::Schema::Leaf
-
#deserialize LLM::Context
-
#deserialize LLM::Agent
-
#deserialize_message LLM::Context::Deserializer
-
#developer LLM::Prompt
-
#developer_role LLM::Google
-
#developer_role LLM::Provider
-
#dig LLM::Object
-
#download LLM::OpenAI::Files
-
#download LLM::Google::Files
-
#download LLM::Anthropic::Files
-
dump LLM::JSONAdapter::JSON
-
dump LLM::JSONAdapter
-
dump LLM::JSONAdapter::Oj
-
dump LLM::JSONAdapter::Yajl
-
#each LLM::Buffer
-
#each LLM::Object
-
#each_pair LLM::Object
-
#edit LLM::OpenAI::Images
-
#edit LLM::Google::Images
-
#edit LLM::XAI::Images
-
#embed LLM::OpenAI
-
#embed LLM::Google
-
#embed LLM::Provider
-
#embed LLM::Ollama
-
#empty? LLM::Stream::Queue
-
#empty? LLM::Object
-
#empty? LLM::Buffer
-
#enum LLM::Schema::Leaf
-
#error? LLM::Function::Return
-
#extra LLM::Message
-
#fetch LLM::Object
-
#file? LLM::Response
-
#files LLM::XAI
-
#files LLM::Provider
-
#files LLM::LlamaCpp
-
#files LLM::ZAI
-
#files LLM::OpenAI
-
#files LLM::Anthropic
-
#files LLM::Google
-
#files LLM::DeepSeek
-
#find LLM::Buffer
-
#find_by_name LLM::Function::Registry
-
find_by_name! LLM::Tool
-
#find_prompt LLM::MCP
-
#flush LLM::MCP::Pipe
-
#flush! LLM::Tracer::Telemetry
-
#flush! LLM::Tracer
-
for LLM::Registry
-
#function LLM::Function::Task
-
function LLM::Tool
-
function LLM
-
#functions LLM::Agent
-
#functions LLM::Context
-
#functions LLM::Message
-
#get LLM::OpenAI::Responses
-
#get LLM::OpenAI::VectorStores
-
#get LLM::OpenAI::Files
-
#get LLM::Anthropic::Files
-
#get LLM::Google::Files
-
#get_file LLM::OpenAI::VectorStores
-
#get_metadata LLM::Anthropic::Files
-
google LLM
-
#http LLM::Provider::Transport::HTTP::Interruptible::Request
-
http LLM::MCP
-
#id LLM::Function
-
#id LLM::Function::Return
-
#id LLM::Model
-
#image? LLM::File
-
#image_url LLM::Context
-
#image_url LLM::Agent
-
#images LLM::ZAI
-
#images LLM::XAI
-
#images LLM::Google
-
#images LLM::DeepSeek
-
#images LLM::LlamaCpp
-
#images LLM::OpenAI
-
#images LLM::Provider
-
#included LLM::Contract
-
inherited LLM::Tool
-
inherited LLM::Schema
-
#initialize LLM::Schema::Leaf
-
#initialize LLM::Anthropic
-
#initialize LLM::MCP::Transport::Stdio
-
#initialize LLM::Function::TaskGroup
-
#initialize LLM::Function::FiberGroup
-
#initialize LLM::Tracer
-
#initialize LLM::LlamaCpp
-
#initialize LLM::Function::ThreadGroup
-
#initialize LLM::DeepSeek
-
#initialize LLM::MCP::Transport::HTTP
-
#initialize LLM::Prompt
-
#initialize LLM::Google::Audio
-
#initialize LLM::Tracer::Telemetry
-
#initialize LLM::Google::Files
-
#initialize LLM::Context
-
#initialize LLM::Tracer::Langsmith
-
#initialize LLM::Object
-
#initialize LLM::OpenAI
-
#initialize LLM::Buffer
-
#initialize LLM::OpenAI::Audio
-
#initialize LLM::OpenAI::Files
-
#initialize LLM::Message
-
#initialize LLM::Ollama
-
#initialize LLM::Model
-
#initialize LLM::Error
-
#initialize LLM::Provider::Transport::HTTP
-
#initialize LLM::Google::Images
-
#initialize LLM::Google
-
#initialize LLM::Tracer::Logger
-
#initialize LLM::Schema::OneOf
-
#initialize LLM::Google::Models
-
#initialize LLM::Ollama::Models
-
#initialize LLM::Function
-
#initialize LLM::Agent
-
#initialize LLM::Schema::Object
-
#initialize LLM::OpenAI::Images
-
#initialize LLM::Schema::AnyOf
-
#initialize LLM::OpenAI::Models
-
#initialize LLM::Schema::AllOf
-
#initialize LLM::Anthropic::Files
-
#initialize LLM::MCP::Pipe
-
#initialize LLM::Anthropic::Models
-
#initialize LLM::Provider
-
#initialize LLM::File
-
#initialize LLM::OpenAI::Responses
-
#initialize LLM::ZAI
-
#initialize LLM::OpenAI::Moderations
-
#initialize LLM::OpenAI::VectorStores
-
#initialize LLM::XAI
-
#initialize LLM::MCP
-
#initialize LLM::Function::Task
-
#initialize LLM::Stream::Queue
-
#initialize LLM::Schema::Array
-
#initialize LLM::Registry
-
#initialize LLM::Response
-
#initialize LLM::MCP::Command
-
#input_costs LLM::Cost
-
#input_tokens LLM::Contract::Completion
-
#input_tokens LLM::Usage
-
#inspect LLM::Response
-
#inspect LLM::Buffer
-
#inspect LLM::Context
-
#inspect LLM::Tracer
-
#inspect LLM::Provider
-
#inspect LLM::Message
-
#inspect LLM::Provider::Transport::HTTP
-
instructions LLM::Agent
-
#integer LLM::Schema
-
#interrupt! LLM::Provider::Transport::HTTP::Interruptible
-
#interrupt! LLM::Context
-
#interrupt! LLM::Provider
-
#interrupt! LLM::Provider::Transport::HTTP
-
#interrupted? LLM::Provider::Transport::HTTP
-
json LLM
-
json= LLM
-
#key? LLM::Object
-
#keys LLM::Object
-
#keys LLM::Schema::Object
-
#last LLM::Buffer
-
#limit LLM::Registry
-
llamacpp LLM
-
#llm LLM::Agent
-
#llm LLM::Context
-
load LLM::JSONAdapter::JSON
-
load LLM::JSONAdapter
-
load LLM::JSONAdapter::Yajl
-
load LLM::JSONAdapter::Oj
-
#local_file LLM::Context
-
#local_file LLM::Agent
-
lock LLM
-
#lock LLM::Function::Registry
-
#max LLM::Schema::Number
-
#max LLM::Schema::String
-
#max LLM::Schema::Integer
-
mcp LLM
-
mcp LLM::Tool
-
mcp? LLM::Tool
-
#merge! LLM::Schema::Object
-
#merge_extra LLM::Tracer
-
#merge_extra LLM::Tracer::Langsmith
-
#message LLM::Error
-
#messages LLM::Agent
-
#messages LLM::Context
-
#messages LLM::Contract::Completion
-
#mime_type LLM::File
-
#min LLM::Schema::Number
-
#min LLM::Schema::Integer
-
#min LLM::Schema::String
-
#modalities LLM::Registry
-
#mode LLM::Context
-
#model LLM::Function
-
#model LLM::Contract::Completion
-
#model LLM::Context
-
#model LLM::Message
-
model LLM::Agent
-
#model LLM::Agent
-
#models LLM::Google
-
#models LLM::OpenAI
-
#models LLM::Provider
-
#models LLM::Anthropic
-
#models LLM::Ollama
-
#moderations LLM::Provider
-
#moderations LLM::LlamaCpp
-
#moderations LLM::XAI
-
#moderations LLM::ZAI
-
#moderations LLM::DeepSeek
-
#moderations LLM::OpenAI
-
#modify LLM::OpenAI::VectorStores
-
#multiple_of LLM::Schema::Integer
-
#multiple_of LLM::Schema::Number
-
#name LLM::Google
-
#name LLM::Anthropic
-
#name LLM::LlamaCpp
-
#name LLM::Ollama
-
#name LLM::Model
-
#name LLM::XAI
-
#name LLM::Function::Return
-
#name LLM::ZAI
-
#name LLM::Provider
-
#name LLM::ServerTool
-
#name LLM::OpenAI
-
#name LLM::Function
-
#name LLM::DeepSeek
-
name LLM::Tool
-
#null LLM::Schema
-
#number LLM::Schema
-
#object LLM::Schema
-
object LLM::Schema
-
#ok? LLM::Response
-
ollama LLM
-
#on_content LLM::Stream
-
#on_reasoning_content LLM::Stream
-
#on_request_error LLM::Tracer::Null
-
#on_request_error LLM::Tracer
-
#on_request_error LLM::Tracer::Logger
-
#on_request_error LLM::Tracer::Telemetry
-
#on_request_finish LLM::Tracer
-
#on_request_finish LLM::Tracer::Logger
-
#on_request_finish LLM::Tracer::Telemetry
-
#on_request_finish LLM::Tracer::Null
-
#on_request_start LLM::Tracer::Logger
-
#on_request_start LLM::Tracer::Null
-
#on_request_start LLM::Tracer::Telemetry
-
#on_request_start LLM::Tracer
-
#on_tool_call LLM::Stream
-
#on_tool_error LLM::Tracer::Telemetry
-
#on_tool_error LLM::Tracer::Null
-
#on_tool_error LLM::Tracer
-
#on_tool_error LLM::Tracer::Logger
-
#on_tool_finish LLM::Tracer
-
#on_tool_finish LLM::Tracer::Null
-
#on_tool_finish LLM::Tracer::Telemetry
-
#on_tool_finish LLM::Tracer::Logger
-
#on_tool_return LLM::Stream
-
#on_tool_start LLM::Tracer
-
#on_tool_start LLM::Tracer::Telemetry
-
#on_tool_start LLM::Tracer::Logger
-
#on_tool_start LLM::Tracer::Null
-
#one_of LLM::Schema
-
openai LLM
-
#optional LLM::Schema::Leaf
-
#optional? LLM::Schema::Leaf
-
#options LLM::ServerTool
-
#output_costs LLM::Cost
-
#output_tokens LLM::Usage
-
#output_tokens LLM::Contract::Completion
-
#param LLM::Tool::Param
-
params LLM::Tool
-
#params LLM::Function
-
#parse LLM::Schema::Parser
-
#parse_tool_input LLM::Anthropic::Utils
-
parser_error LLM::JSONAdapter::Oj
-
parser_error LLM::JSONAdapter::JSON
-
parser_error LLM::JSONAdapter::Yajl
-
parser_error LLM::JSONAdapter
-
#path LLM::File
-
#pdf? LLM::File
-
#pending? LLM::Function
-
#persist! LLM::MCP::Transport::HTTP
-
#persist! LLM::Provider::Transport::HTTP
-
#persist! LLM::MCP
-
#persist! LLM::Provider
-
#persist! LLM::MCP::Transport::Stdio
-
#persistent? LLM::Provider::Transport::HTTP
-
#pid LLM::MCP::Command
-
#poll LLM::OpenAI::VectorStores
-
#prompt LLM::Context
-
#prompt LLM::Agent
-
#prompts LLM::MCP
-
#properties LLM::Schema::Object
-
property LLM::Schema
-
#provider LLM::ServerTool
-
#queue LLM::Stream
-
#r LLM::MCP::Pipe
-
#raw LLM::Model
-
#read_nonblock LLM::MCP::Transport::HTTP
-
#read_nonblock LLM::MCP::Command
-
#read_nonblock LLM::MCP::Pipe
-
#read_nonblock LLM::MCP::Transport::Stdio
-
#reasoning_content LLM::Contract::Completion
-
#reasoning_content LLM::Message
-
#reasoning_tokens LLM::Usage
-
#reasoning_tokens LLM::Contract::Completion
-
#register LLM::Function::Registry
-
register LLM::Tool
-
registry LLM::Tool
-
#registry LLM::Function::Registry
-
registry_for LLM
-
#registry_key LLM::Function::Registry
-
#remote_file LLM::Agent
-
#remote_file LLM::Context
-
#request LLM::Provider::Transport::HTTP
-
#request_owner LLM::Provider::Transport::HTTP
-
#required LLM::Schema::Leaf
-
#required? LLM::Schema::Leaf
-
#res LLM::Response
-
#resolve LLM::Tool::Param::Utils
-
#resolve LLM::Schema::Utils
-
#respond LLM::Provider
-
#respond LLM::Agent
-
#respond LLM::Context
-
#response LLM::Error
-
#response LLM::Message
-
#responses LLM::Provider
-
#responses LLM::DeepSeek
-
#responses LLM::OpenAI
-
#responses LLM::ZAI
-
#responses LLM::XAI
-
#responses LLM::LlamaCpp
-
#returns LLM::Context
-
#role LLM::Message
-
#running? LLM::MCP::Transport::HTTP
-
#schema LLM::Provider
-
schema LLM::Agent
-
schema LLM::Schema
-
#search LLM::OpenAI::VectorStores
-
#serialize LLM::Context
-
#serialize LLM::Agent
-
#server_tool LLM::Provider
-
#server_tools LLM::OpenAI
-
#server_tools LLM::Provider
-
#server_tools LLM::Google
-
#server_tools LLM::Anthropic
-
#set_finish_metadata_proc LLM::Tracer
-
#set_finish_metadata_proc LLM::Tracer::Null
-
#set_request_metadata LLM::Tracer
-
#setup LLM::Tool::Param::Utils
-
#size LLM::Object
-
#size LLM::Buffer
-
#slice LLM::Object
-
#spans LLM::Tracer::Telemetry
-
#spans LLM::Tracer
-
#spawn LLM::Function
-
#spawn LLM::Function::Array
-
#start LLM::MCP::Command
-
#start LLM::MCP::Transport::HTTP
-
#start LLM::MCP::Transport::Stdio
-
#start LLM::MCP
-
#start_trace LLM::Tracer
-
#start_trace LLM::Tracer::Langsmith
-
#start_trace LLM::Tracer::Telemetry
-
#stderr LLM::MCP::Command
-
#stdin LLM::MCP::Command
-
stdio LLM::MCP
-
#stdout LLM::MCP::Command
-
#stop LLM::MCP::Transport::Stdio
-
#stop LLM::MCP::Transport::HTTP
-
#stop LLM::MCP::Command
-
#stop LLM::MCP
-
#stop_trace LLM::Tracer::Langsmith
-
#stop_trace LLM::Tracer::Telemetry
-
#stop_trace LLM::Tracer
-
#streamable? LLM::Provider
-
#string LLM::Schema
-
#system LLM::Prompt
-
#system? LLM::Message
-
#system_role LLM::Google
-
#system_role LLM::Provider
-
#talk LLM::Prompt
-
#talk LLM::Context
-
#talk LLM::Agent
-
#task LLM::Function::Task
-
#to_a LLM::Prompt
-
#to_b64 LLM::File
-
#to_data_uri LLM::File
-
#to_h LLM::Schema::Object
-
#to_h LLM::Schema::Leaf
-
#to_h LLM::Schema::Null
-
#to_h LLM::Context
-
#to_h LLM::Message
-
#to_h LLM::ServerTool
-
#to_h LLM::Object
-
#to_h LLM::Model
-
#to_h LLM::Schema::Integer
-
#to_h LLM::Schema::Boolean
-
#to_h LLM::Function::Return
-
#to_h LLM::Schema::String
-
#to_h LLM::Schema::OneOf
-
#to_h LLM::Schema::Number
-
#to_h LLM::Schema::AnyOf
-
#to_h LLM::Schema::AllOf
-
#to_h LLM::Schema::Array
-
#to_hash LLM::Object
-
#to_json LLM::Schema::Leaf
-
#to_json LLM::Buffer
-
#to_json LLM::Object
-
#to_json LLM::Usage
-
#to_json LLM::Function::Return
-
#to_json LLM::Schema::Array
-
#to_json LLM::Message
-
#to_json LLM::ServerTool
-
#to_json LLM::Context
-
#to_json LLM::Schema::Object
-
#to_s LLM::Cost
-
#tool_call? LLM::Message
-
#tool_id LLM::Google::Utils
-
#tool_name LLM::Function::Registry
-
#tool_not_found LLM::Stream
-
#tool_return? LLM::Message
-
#tool_role LLM::Provider
-
#tool_role LLM::Anthropic
-
tools LLM::Agent
-
#tools LLM::MCP
-
#total LLM::Cost
-
#total_tokens LLM::Contract::Completion
-
#total_tokens LLM::Usage
-
#tracer LLM::Provider
-
#tracer LLM::Function
-
#tracer LLM::Agent
-
#tracer LLM::Context
-
#tracer= LLM::Provider
-
#unregister LLM::Function::Registry
-
unregister LLM::Tool
-
#update_file LLM::OpenAI::VectorStores
-
#usage LLM::Message
-
#usage LLM::Agent
-
#usage LLM::Contract::Completion
-
#usage LLM::Context
-
#user LLM::Prompt
-
#user? LLM::Message
-
#user_role LLM::Provider
-
#user_role LLM::Google
-
#value LLM::Function::Return
-
#values LLM::Object
-
#vector_stores LLM::DeepSeek
-
#vector_stores LLM::OpenAI
-
#vector_stores LLM::ZAI
-
#vector_stores LLM::XAI
-
#vector_stores LLM::Provider
-
#vector_stores LLM::LlamaCpp
-
#w LLM::MCP::Pipe
-
#wait LLM::Function::Task
-
#wait LLM::Stream::Queue
-
#wait LLM::Function::Array
-
#wait LLM::Function::ThreadGroup
-
#wait LLM::Function::FiberGroup
-
#wait LLM::Context
-
#wait LLM::MCP::Transport::Stdio
-
#wait LLM::Function::TaskGroup
-
#wait LLM::MCP::Command
-
#wait LLM::Stream
-
#web_search LLM::Anthropic
-
#web_search LLM::OpenAI
-
#web_search LLM::Provider
-
#web_search LLM::Google
-
#with LLM::Provider
-
#with_io LLM::File
-
#write LLM::MCP::Command
-
#write LLM::MCP::Transport::Stdio
-
#write LLM::MCP::Transport::HTTP
-
#write LLM::MCP::Pipe
-
xai LLM
-
zai LLM