В этой статье приведен пример кода с помощью API приема журналов. Для каждого примера необходимо создать следующие компоненты перед выполнением кода. См. Руководство: как отправить данные в Azure Monitor с использованием API приема журналов (с помощью шаблонов Resource Manager) для полного пошагового руководства по созданию компонентов, настроенных для поддержки каждого из этих примеров.
- Настраиваемая таблица в рабочей области Log Analytics
- Правило сбора данных (DCR) для перенаправления данных в целевую таблицу
- Приложение Microsoft Entra с доступом к DCR
- Конечная точка сбора данных (DCE), если вы используете приватный канал. В противном случае используйте конечную точку журналов DCR.
Пример кода
В следующем скрипте используется клиентская библиотека Azure Monitor для .NET для сбора данных.
Установите библиотеку клиента инжестирования Azure Monitor и библиотеку удостоверений Azure. Библиотека удостоверений Azure необходима для проверки подлинности, используемой в этом примере.
dotnet add package Azure.Identity
dotnet add package Azure.Monitor.Ingestion
Создайте следующие переменные среды со значениями для приложения Microsoft Entra. Эти значения используются DefaultAzureCredential
в библиотеке идентификации Azure.
AZURE_TENANT_ID
AZURE_CLIENT_ID
AZURE_CLIENT_SECRET
Замените переменные в следующем примере кода значениями из DCR. Вы также можете заменить примеры данных собственными.
using Azure;
using Azure.Core;
using Azure.Identity;
using Azure.Monitor.Ingestion;
// Initialize variables
var endpoint = new Uri("https://my-url.monitor.azure.com");
var ruleId = "dcr-00000000000000000000000000000000";
var streamName = "Custom-MyTableRawData";
// Create credential and client
var credential = new DefaultAzureCredential();
LogsIngestionClient client = new LogsIngestionClient(endpoint, credential);
DateTime currentTime = DateTime.UtcNow;
// Use BinaryData to serialize instances of an anonymous type into JSON
BinaryData data = BinaryData.FromObjectAsJson(
new[] {
new
{
Time = currentTime,
Computer = "Computer1",
AdditionalContext = new
{
InstanceName = "user1",
TimeZone = "Pacific Time",
Level = 4,
CounterName = "AppMetric1",
CounterValue = 15.3
}
},
new
{
Time = currentTime,
Computer = "Computer2",
AdditionalContext = new
{
InstanceName = "user2",
TimeZone = "Central Time",
Level = 3,
CounterName = "AppMetric1",
CounterValue = 23.5
}
},
}
);
// Upload logs
try
{
// ===== START: Use this block of code to upload compressed data
byte[] dataBytes = data.ToArray();
string contentEncoding = "gzip"; // Specify gzip if the content is already compressed
using (MemoryStream memoryStream = new MemoryStream())
{
using (GZipStream gzipStream = new GZipStream(memoryStream, CompressionMode.Compress))
{
gzipStream.Write(dataBytes, 0, dataBytes.Length);
}
byte[] gzipBytes = memoryStream.ToArray();
var response = await client.UploadAsync(ruleId, streamName, RequestContent.Create(gzipBytes), contentEncoding).ConfigureAwait(false);
if (response.IsError)
{
throw new Exception(response.ToString());
}
}
// ===== End: code block to upload compressed data
//** ===== START: Use this block of code to upload uncompressed data.
var response = await client.UploadAsync(ruleId, streamName, RequestContent.Create(data)).ConfigureAwait(false);
if (response.IsError)
{
throw new Exception(response.ToString());
}
//** ===== End: code block to upload uncompressed data.
}
catch (Exception ex)
{
Console.WriteLine("Upload failed with Exception: " + ex.Message);
}
- Выполните код, и данные должны поступать в рабочую область Log Analytics в течение нескольких минут.
В следующем примере кода используется клиентский модуль журналов приема Azure Monitor для Go.
Используйте go get
, чтобы установить модули журналов приема Azure Monitor и клиентские модули Azure Identity для Go. Модуль удостоверений Azure необходим для проверки подлинности, используемой в этом примере.
go get github.com/Azure/azure-sdk-for-go/sdk/monitor/ingestion/azlogs
go get github.com/Azure/azure-sdk-for-go/sdk/azidentity
Создайте следующие переменные среды со значениями для приложения Microsoft Entra. Эти значения используются DefaultAzureCredential
в модуле идентичности Azure.
AZURE_TENANT_ID
AZURE_CLIENT_ID
AZURE_CLIENT_SECRET
Замените переменные в следующем примере кода значениями из DCR. Вы также можете заменить примеры данных собственными.
package main
import (
"context"
"encoding/json"
"strconv"
"time"
"github.com/Azure/azure-sdk-for-go/sdk/azidentity"
"github.com/Azure/azure-sdk-for-go/sdk/monitor/ingestion/azlogs"
)
// logs ingestion URI
const endpoint = "https://my-url.monitor.azure.com"
// data collection rule (DCR) immutable ID
const ruleID = "dcr-00000000000000000000000000000000"
// stream name in the DCR that represents the destination table
const streamName = "Custom-MyTableRawData"
type Computer struct {
Time time.Time
Computer string
AdditionalContext string
}
func main() {
// creating the client using DefaultAzureCredential
cred, err := azidentity.NewDefaultAzureCredential(nil)
if err != nil {
//TODO: handle error
}
client, err := azlogs.NewClient(endpoint, cred, nil)
if err != nil {
//TODO: handle error
}
// generating logs
// logs should match the schema defined by the provided stream
var data []Computer
for i := 0; i < 10; i++ {
data = append(data, Computer{
Time: time.Now().UTC(),
Computer: "Computer" + strconv.Itoa(i),
AdditionalContext: "context",
})
}
// marshal data into []byte
logs, err := json.Marshal(data)
if err != nil {
panic(err)
}
// upload logs
_, err = client.Upload(context.TODO(), ruleID, streamName, logs, nil)
if err != nil {
//TODO: handle error
}
}
Выполните код, и данные должны поступать в рабочую область Log Analytics в течение нескольких минут.
В следующем примере кода используется клиентская библиотека приема Azure Monitor для Java.
Включите пакет для сбора журналов и azure-identity
пакет из библиотеки аутентификации Azure. Библиотека удостоверений Azure необходима для проверки подлинности, используемой в этом примере.
<dependency>
<groupId>com.azure</groupId>
<artifactId>azure-monitor-ingestion</artifactId>
<version>{get-latest-version}</version>
<dependency>
<groupId>com.azure</groupId>
<artifactId>azure-identity</artifactId>
<version>{get-latest-version}</version>
</dependency>
Создайте следующие переменные среды со значениями для приложения Microsoft Entra. Эти значения используются DefaultAzureCredential
в библиотеке идентификации Azure.
AZURE_TENANT_ID
AZURE_CLIENT_ID
AZURE_CLIENT_SECRET
Замените переменные в следующем примере кода значениями из DCR. Вы также можете заменить примеры данных собственными.
import com.azure.identity.DefaultAzureCredentialBuilder;
import com.azure.monitor.ingestion.models.LogsUploadException;
import java.time.OffsetDateTime;
import java.util.Arrays;
import java.util.List;
public class LogsUploadSample {
public static void main(String[] args) {
LogsIngestionClient client = new LogsIngestionClientBuilder()
.endpoint("https://my-url.monitor.azure.com")
.credential(new DefaultAzureCredentialBuilder().build())
.buildClient();
List<Object> dataList = Arrays.asList(
new Object() {
OffsetDateTime time = OffsetDateTime.now();
String computer = "Computer1";
Object additionalContext = new Object() {
String instanceName = "user4";
String timeZone = "Pacific Time";
int level = 4;
String counterName = "AppMetric1";
double counterValue = 15.3;
};
},
new Object() {
OffsetDateTime time = OffsetDateTime.now();
String computer = "Computer2";
Object additionalContext = new Object() {
String instanceName = "user2";
String timeZone = "Central Time";
int level = 3;
String counterName = "AppMetric2";
double counterValue = 43.5;
};
});
try {
client.upload("dcr-00000000000000000000000000000000", "Custom-MyTableRawData", dataList);
System.out.println("Logs uploaded successfully");
} catch (LogsUploadException exception) {
System.out.println("Failed to upload logs ");
exception.getLogsUploadErrors()
.forEach(httpError -> System.out.println(httpError.getMessage()));
}
}
}
Выполните код, и данные должны поступать в рабочую область Log Analytics в течение нескольких минут.
В следующем примере кода используется библиотека клиента Azure Monitor Ingestion для JavaScript.
Используйте npm для установки клиентских библиотек Azure Monitor Ingestion и Azure Identity для JavaScript. Библиотека удостоверений Azure необходима для проверки подлинности, используемой в этом примере.
npm install --save @azure/monitor-ingestion
npm install --save @azure/identity
Создайте следующие переменные среды со значениями для приложения Microsoft Entra. Эти значения используются DefaultAzureCredential
в библиотеке идентификации Azure.
AZURE_TENANT_ID
AZURE_CLIENT_ID
AZURE_CLIENT_SECRET
Замените переменные в следующем примере кода значениями из DCR. Вы также можете заменить примеры данных собственными.
const { DefaultAzureCredential } = require("@azure/identity");
const { LogsIngestionClient, isAggregateLogsUploadError } = require("@azure/monitor-ingestion");
require("dotenv").config();
async function main() {
const logsIngestionEndpoint = "https://my-url.monitor.azure.com";
const ruleId = "dcr-00000000000000000000000000000000";
const streamName = "Custom-MyTableRawData";
const credential = new DefaultAzureCredential();
const client = new LogsIngestionClient(logsIngestionEndpoint, credential);
const logs = [
{
Time: "2021-12-08T23:51:14.1104269Z",
Computer: "Computer1",
AdditionalContext: {
"InstanceName": "user1",
"TimeZone": "Pacific Time",
"Level": 4,
"CounterName": "AppMetric2",
"CounterValue": 35.3
}
},
{
Time: "2021-12-08T23:51:14.1104269Z",
Computer: "Computer2",
AdditionalContext: {
"InstanceName": "user2",
"TimeZone": "Pacific Time",
"Level": 4,
"CounterName": "AppMetric2",
"CounterValue": 43.5
}
},
];
try{
await client.upload(ruleId, streamName, logs);
}
catch(e){
let aggregateErrors = isAggregateLogsUploadError(e) ? e.errors : [];
if (aggregateErrors.length > 0) {
console.log("Some logs have failed to complete ingestion");
for (const error of aggregateErrors) {
console.log(`Error - ${JSON.stringify(error.cause)}`);
console.log(`Log - ${JSON.stringify(error.failedLogs)}`);
}
} else {
console.log(e);
}
}
}
main().catch((err) => {
console.error("The sample encountered an error:", err);
process.exit(1);
});
Выполните код, и данные должны поступать в рабочую область Log Analytics в течение нескольких минут.
Следующий код PowerShell отправляет данные в конечную точку с помощью принципов REST HTTP.
Примечание.
Для этого примера требуется PowerShell версии 7.0 или более поздней версии.
Выполните следующую пример команду PowerShell, которая добавляет необходимую сборку для скрипта.
Add-Type -AssemblyName System.Web
Замените параметры в разделе Шаг 0 значениями из приложения и DCR. Вы также можете заменить образцы данных в шаге 2 на собственные.
### Step 0: Set variables required for the rest of the script.
# information needed to authenticate to AAD and obtain a bearer token
$tenantId = "00000000-0000-0000-00000000000000000" #Tenant ID the data collection endpoint resides in
$appId = " 000000000-0000-0000-00000000000000000" #Application ID created and granted permissions
$appSecret = "0000000000000000000000000000000000000000" #Secret created for the application
# information needed to send data to the DCR endpoint
$endpoint_uri = "https://my-url.monitor.azure.com" #Logs ingestion URI for the DCR
$dcrImmutableId = "dcr-00000000000000000000000000000000" #the immutableId property of the DCR object
$streamName = "Custom-MyTableRawData" #name of the stream in the DCR that represents the destination table
### Step 1: Obtain a bearer token used later to authenticate against the DCR.
$scope= [System.Web.HttpUtility]::UrlEncode("https://monitor.azure.com//.default")
$body = "client_id=$appId&scope=$scope&client_secret=$appSecret&grant_type=client_credentials";
$headers = @{"Content-Type"="application/x-www-form-urlencoded"};
$uri = "https://login.microsoftonline.com/$tenantId/oauth2/v2.0/token"
$bearerToken = (Invoke-RestMethod -Uri $uri -Method "Post" -Body $body -Headers $headers).access_token
### Step 2: Create some sample data.
$currentTime = Get-Date ([datetime]::UtcNow) -Format O
$staticData = @"
[
{
"Time": "$currentTime",
"Computer": "Computer1",
"AdditionalContext": {
"InstanceName": "user1",
"TimeZone": "Pacific Time",
"Level": 4,
"CounterName": "AppMetric1",
"CounterValue": 15.3
}
},
{
"Time": "$currentTime",
"Computer": "Computer2",
"AdditionalContext": {
"InstanceName": "user2",
"TimeZone": "Central Time",
"Level": 3,
"CounterName": "AppMetric1",
"CounterValue": 23.5
}
}
]
"@;
### Step 3: Send the data to the Log Analytics workspace.
$body = $staticData;
$headers = @{"Authorization"="Bearer $bearerToken";"Content-Type"="application/json"};
$uri = "$endpoint_uri/dataCollectionRules/$dcrImmutableId/streams/$($streamName)?api-version=2023-01-01"
$uploadResponse = Invoke-RestMethod -Uri $uri -Method "Post" -Body $body -Headers $headers
Примечание.
Если вы получили ошибку Unable to find type [System.Web.HttpUtility].
, запустите последнюю строку в разделе 1 сценария для исправления и выполните его. Выполнение его после раскомментирования как часть скрипта не устранит проблему. Команда должна выполняться отдельно.
Выполните скрипт, и вы увидите HTTP - 204
ответ. Данные должны поступать в рабочую область Log Analytics в течение нескольких минут.
В следующем примере кода используется клиентская библиотека Azure Monitor для сбора данных на Python.
Используйте pip для установки клиентских библиотек для работы с данными Azure Monitor Ingestion и Azure Identity для Python. Библиотека удостоверений Azure необходима для проверки подлинности, используемой в этом примере.
pip install azure-monitor-ingestion
pip install azure-identity
Создайте следующие переменные среды со значениями для приложения Microsoft Entra. Эти значения используются DefaultAzureCredential
в библиотеке идентификации Azure.
AZURE_TENANT_ID
AZURE_CLIENT_ID
AZURE_CLIENT_SECRET
Замените переменные в следующем примере кода значениями из DCR. Вам также может понадобиться заменить примеры данных в Шаге 2 своими собственными.
# information needed to send data to the DCR endpoint
endpoint_uri = "https://my-url.monitor.azure.com" # logs ingestion endpoint of the DCR
dcr_immutableid = "dcr-00000000000000000000000000000000" # immutableId property of the Data Collection Rule
stream_name = "Custom-MyTableRawData" #name of the stream in the DCR that represents the destination table
# Import required modules
import os
from azure.identity import DefaultAzureCredential
from azure.monitor.ingestion import LogsIngestionClient
from azure.core.exceptions import HttpResponseError
credential = DefaultAzureCredential()
client = LogsIngestionClient(endpoint=endpoint_uri, credential=credential, logging_enable=True)
body = [
{
"Time": "2023-03-12T15:04:48.423211Z",
"Computer": "Computer1",
"AdditionalContext": {
"InstanceName": "user1",
"TimeZone": "Pacific Time",
"Level": 4,
"CounterName": "AppMetric2",
"CounterValue": 35.3
}
},
{
"Time": "2023-03-12T15:04:48.794972Z",
"Computer": "Computer2",
"AdditionalContext": {
"InstanceName": "user2",
"TimeZone": "Central Time",
"Level": 3,
"CounterName": "AppMetric2",
"CounterValue": 43.5
}
}
]
try:
client.upload(rule_id=dcr_immutableid, stream_name=stream_name, logs=body)
except HttpResponseError as e:
print(f"Upload failed: {e}")
Выполните код, и данные должны поступать в рабочую область Log Analytics в течение нескольких минут.
Устранение неполадок
В этом разделе описаны различные условия ошибки, которые могут возникнуть и как их исправить.
Ошибка |
Описание |
Код ошибки 403 |
Убедитесь, что у вас есть необходимые разрешения для приложения в правиле сбора данных. Возможно, вам также придется подождать до 30 минут, пока разрешения распространятся. |
Код ошибки 413 или предупреждение TimeoutExpired с сообщением ReadyBody_ClientConnectionAbort в ответе |
Сообщение слишком большое. Максимальный размер сообщения в настоящее время составляет 1 МБ на вызов. |
Код ошибки 429 |
Превышены ограничения для API. Ограничения в настоящее время устанавливаются в 500 МБ данных в минуту для сжатых и несжатых данных и 300 000 запросов в минуту. Повторите попытку через интервал, указанный в заголовке Retry-After в ответе. |
Нет данных. |
Данные могут занять некоторое время для приема, особенно при первом отправке данных в определенную таблицу. Это не должно занять больше 15 минут. |
IntelliSense в Log Analytics не распознает новую таблицу. |
Кэш, управляющий IntelliSense, может обновляться до 24 часов. |
Следующие шаги