Как узнать, сколько объектов я сохранил в корзине S3?

Если я чего-то не упускаю, кажется, что ни один из API, на который я смотрел, не скажет вам, сколько объектов находится в <S3 bucket>/<folder>. Есть ли способ подсчитать?


person fields    schedule 19.05.2010    source источник
comment
Этот вопрос может быть полезным: stackoverflow.com/questions/701545/   -  person Brendan Long    schedule 19.05.2010
comment
Решение действительно существует в 2015 году: stackoverflow.com/a/32908591/578989   -  person Mayank Jaiswal    schedule 27.11.2015
comment
См. Мой ответ ниже: stackoverflow.com/a/39111698/996926   -  person advncd    schedule 24.08.2016
comment
Ответ 2017 г .: stackoverflow.com/a/42927268/4875295   -  person cameck    schedule 14.06.2017
comment
Как насчет аналитики классов хранилища S3 - вы получаете API не только на консоли - docs.aws.amazon.com/AmazonS3/latest/dev/   -  person Prabhat    schedule 12.06.2018
comment
Ответ 2020 г .: stackoverflow.com/a/64486330/8718377   -  person veben    schedule 02.11.2020


Ответы (30)


Нет способа, если вы

  1. перечислите их все партиями по 1000 (что может быть медленным и отнимать пропускную способность - amazon, похоже, никогда не сжимает ответы XML) или

  2. войдите в свою учетную запись на S3 и выберите «Учетная запись - Использование». Похоже, отдел биллинга точно знает, сколько объектов вы сохранили!

Простая загрузка списка всех ваших объектов на самом деле займет некоторое время и будет стоить некоторых денег, если у вас хранится 50 миллионов объектов.

Также см. этот поток о StorageObjectCount, который находится в данных об использовании .

S3 API, чтобы получить хотя бы основы, даже если ему уже несколько часов, было бы здорово.

person Tom Andersen    schedule 20.05.2010
comment
Между прочим, эта ссылка мертва. - person fields; 26.05.2010
comment
Извините: developer.amazonwebservices.com/connect/ - person Tom Andersen; 02.06.2010
comment
Если вы, как и я, ленивы, Newvem в основном сделает это от вашего имени и объединяет / отслеживает результаты на на уровне ведра в вашей учетной записи S3. - person rcoup; 11.10.2012
comment
Не могли бы вы обновить свой ответ, включив в него ответ @ MayankJaiswal? - person Joseph Casey; 19.02.2016
comment
отдел биллинга знает все! Неудивительно, что у них есть сила, чтобы случайно уничтожить восточное побережье s3 - person ski_squaw; 14.08.2017

Использование AWS CLI

aws s3 ls s3://mybucket/ --recursive | wc -l 

or

aws cloudwatch get-metric-statistics \
  --namespace AWS/S3 --metric-name NumberOfObjects \
  --dimensions Name=BucketName,Value=BUCKETNAME \
              Name=StorageType,Value=AllStorageTypes \
  --start-time 2016-11-05T00:00 --end-time 2016-11-05T00:10 \
  --period 60 --statistic Average

Примечание. Приведенная выше команда cloudwatch для одних работает, а для других - нет. Обсуждается здесь: https://forums.aws.amazon.com/thread.jspa?threadID=217050

Использование веб-консоли AWS

Вы можете посмотреть раздел метрик Cloudwatch. чтобы получить приблизительное количество хранимых объектов. введите описание изображения здесь

У меня около 50 миллионов товаров, и на подсчет с помощью aws s3 ls ушло больше часа.

person Mayank Jaiswal    schedule 02.10.2015
comment
Это должно быть ближе к верху. - person Joseph Casey; 19.02.2016
comment
@JosephMCasey Я согласен. Это также работает, чтобы указать количество объектов в каталоге с такой корзиной: aws s3 ls s3://mybucket/mydirectory/ --recursive | wc -l - person tim peterson; 16.05.2016
comment
Выдает эту ошибку, когда я запускал указанное выше в командной строке - wc не распознается как внутренняя или внешняя команда, работающая программа или командный файл. - Я новичок в этом, может кто-нибудь дать решение? - person Sandun; 18.12.2018
comment
Предупреждение о том, что CloudWatch не кажется очень надежным. У меня есть файл mp4 в одной корзине, которую CloudWatch (метрика NumberOfObjects) считает как 2300 отдельных объектов. Я получил правильный номер с помощью AWS CLI. - person AlexK; 05.03.2019
comment
Почему средний? Разве кто-то не захотел бы Sum вместо этого? - person ffxsam; 28.10.2019
comment
Вся статистика CloudWatch сохраняется только в течение 15 месяцев. docs.aws.amazon.com/AmazonS3/latest/dev/ - person Jugal Panchal; 19.06.2020
comment
Это действительно полезно для подсчета количества объектов в каталоге: ls dir | wc -l - person George Ogden; 20.03.2021

Существует переключатель --summarize, который включает сводную информацию о сегменте (т. Е. Количество объектов, общий размер).

Вот правильный ответ с помощью AWS cli:

aws s3 ls s3://bucketName/path/ --recursive --summarize | grep "Total Objects:"

Total Objects: 194273

См. документацию.

person advncd    schedule 23.08.2016
comment
Это здорово: Total Objects: 7235 Total Size: 475566411749 - так просто. - person bonh; 16.08.2017
comment
К сожалению, у вас по-прежнему есть основные накладные расходы на перечисление тысяч объектов (в настоящее время более 600000, так что это довольно много времени). - person MichaelChirico; 22.01.2018
comment
сколько будет стоить выполнение этой задачи в ведре с 5 млн объектов? - person Psychozoic; 31.01.2019
comment
Этот ответ крайне неэффективен, потенциально очень медленный и дорогостоящий. Чтобы найти ответ, он перебирает всю корзину. - person weaver; 08.10.2019
comment
И позвольте мне добавить, что повторение более 1,2 миллиарда объектов, хранящихся в стандартном хранилище, может стоить около 6000 долларов. - person C Johnson; 25.01.2020
comment
er - 0,005 доллара США за 1000 запросов LIST, и каждая страница результатов представляет собой 1 запрос, инструмент cli (и API) по умолчанию ограничен 1000 результатами в запросе. Итак (1200000000/1000/1000) * 0,005) = 6 долларов США. другие уровни хранилища, конечно, стоят дороже за 1 тыс. запросов. AFAIK плата не за найденный / возвращаемый объект, а за фактический запрос API. - person keen; 22.12.2020

Хотя это старый вопрос, и отзывы были предоставлены в 2015 году, сейчас это намного проще, поскольку в веб-консоли S3 включена опция «Получить размер»:

введите описание изображения здесь

Что обеспечивает следующее:

введите описание изображения здесь

person gvasquez    schedule 21.03.2017
comment
Да, новая консоль AWS, хоть и болит мне глаза, позволяет вычислить количество объектов и общий размер одним нажатием кнопки. - person Ani; 07.04.2017
comment
Кажется, это работает только на уровне папки. Получить размер недоступно на уровне сегмента - person G-.; 21.06.2017
comment
@ГРАММ-. Что, если вы выберете все папки корзины? - person gvasquez; 09.02.2018
comment
@gvasquez, да, это работает. Спасибо. Можно использовать поле «Выбрать все» рядом с «Имя» над списком файлов / папок. - person G-.; 01.03.2018
comment
@ГРАММ-. Однако в поле «Выбрать все» выбираются только те папки и объекты, которые отображаются на странице, а не все папки / объекты корзины. - person gparis; 01.06.2018
comment
@gparis хороший момент. Стоит отметить. Спасибо. Получается, что в консоли у нас нет опции, если файлов или папок больше, чем может быть отображено на одной странице. - person G-.; 18.06.2018
comment
@ГРАММ-. Ага .. похоже, мы не можем подсчитать количество файлов в ведре. - person Niklas R.; 03.09.2018
comment
Это не дает файлам и папкам разное количество очков, это очень важно. - person Vishal Zanzrukia; 20.09.2018
comment
Как получить это программно? - person user2967920; 05.02.2019

Теперь есть простое решение с S3 API (доступно в клике AWS):

aws s3api list-objects --bucket BUCKETNAME --output json --query "[length(Contents[])]"

или для конкретной папки:

aws s3api list-objects --bucket BUCKETNAME --prefix "folder/subfolder/" --output json --query "[length(Contents[])]"
person Raphael    schedule 02.10.2015
comment
Рафаэль, ваш запрос папки отлично работает, за исключением случаев, когда папка пуста или не существует, тогда вы получите: В функции length () недопустимый тип значения: None, ожидается одно из: ['string', 'array', 'object'], Received: null Есть ли способ просто заставить выводить 0, если папка пуста или не выходит? - person user3591836; 23.11.2015
comment
Я получаю Illegal token value '(Contents[])]' (версия 1.2.9 aws-cli) при использовании только --bucket my-bucket и A client error (NoSuchBucket) occurred when calling the ListObjects operation: The specified bucket does not exist при использовании --bucket s3://my-bucket. (Он определенно существует и содержит более 1000 файлов.) - person Darren Cook; 01.02.2016
comment
@DarrenCook удаляет s3: // из имени корзины. Клиент, похоже, не поддерживает протокол. - person Sriranjan Manjunath; 31.03.2016
comment
Это намного быстрее, чем примеры wc -l. С моими ведрами это будет примерно 3-4 тысячи объектов в секунду. Итак, ~ 5 минут на миллион объектов. Get Size в веб-интерфейсе S3, вероятно, использует что-то похожее под капотом, поскольку это занимает примерно то же время. - person notpeter; 20.05.2017
comment
Для ОЧЕНЬ больших корзин это было единственное решение, которое сработало для меня в разумные сроки (менее 20 минут) - person Nick Sarafa; 26.06.2017

Если вы используете инструмент командной строки s3cmd, вы можете получить рекурсивный список определенного сегмента, выводя его в текстовый файл.

s3cmd ls -r s3://logs.mybucket/subfolder/ > listing.txt

Затем в Linux вы можете запустить wc -l для файла, чтобы подсчитать строки (1 строка на объект).

wc -l listing.txt
person Jim Murphy    schedule 25.12.2012
comment
-r в команде предназначен для --recursive, поэтому он должен работать и для подпапок. - person Deepak Joy Cheenath; 28.09.2015
comment
3 примечания по этому поводу. а.) вам следует использовать aws s3 ls, а не s3cmd, потому что это быстрее. б.) Для больших ведер это может занять много времени. На файлы размером 1 мил ушло около 5 минут. c.) См. мой ответ ниже об использовании cloudwatch. - person mastaBlasta; 04.02.2016

Вы можете использовать метрики AWS cloudwatch для s3, чтобы увидеть точное количество для каждой корзины. метрика облачных часов, когда вы  выбрать сегмент

person mastaBlasta    schedule 04.02.2016
comment
Я думаю это лучший ответ - person Oktav; 04.05.2016
comment
Единственный реальный ответ, не делая чего-то нелепого, например, перечисления 1м + ключей. Я забыл, что это было там. - person Andrew Backer; 29.07.2016
comment
Для этого нужно больше голосов. Любое другое решение плохо масштабируется с точки зрения затрат и времени. - person Aaron R.; 10.05.2019
comment
Однако обратите внимание, что это значение рассчитывается путем подсчета всех объектов в корзине (как текущих, так и не текущих объектов) и общего количества частей для всех неполных составных загрузок в корзину. Таким образом, он также будет считать старые версии. - person dinvlad; 26.05.2021

2020/10/22

С Консолью AWS

Используйте метрики AWS Cloudwatch

С AWS CLI

Количество объектов:

or:

aws s3api list-objects --bucket <BUCKET_NAME> --prefix "<FOLDER_NAME>" | wc -l

or:

aws s3 ls s3://<BUCKET_NAME>/<FOLDER_NAME>/ --recursive --summarize --human-readable | grep "Total Objects"

или с помощью s4cmd:

s4cmd ls -r s3://<BUCKET_NAME>/<FOLDER_NAME>/ | wc -l

Размер объектов:

aws s3api list-objects --bucket <BUCKET_NAME> --output json --query "[sum(Contents[].Size), length(Contents[])]" | awk  'NR!=2 {print $0;next}  NR==2 {print $0/1024/1024/1024" GB"}'

or:

aws s3 ls s3://<BUCKET_NAME>/<FOLDER_NAME>/ --recursive --summarize --human-readable | grep "Total Size"

или с помощью s4cmd:

s4cmd du s3://<BUCKET_NAME>

или с метриками CloudWatch:

aws cloudwatch get-metric-statistics --metric-name BucketSizeBytes --namespace AWS/S3 --start-time 2020-10-20T16:00:00Z --end-time 2020-10-22T17:00:00Z --period 3600 --statistics Average --unit Bytes --dimensions Name=BucketName,Value=<BUCKET_NAME> Name=StorageType,Value=StandardStorage --output json | grep "Average"
person veben    schedule 22.10.2020

Перейдите в раздел "AWS Billing", затем "Отчеты", а затем "Отчеты об использовании AWS". Выберите Amazon Simple Storage Service, затем Operation StandardStorage. Затем вы можете загрузить CSV-файл, который включает UsageType для StorageObjectCount, в котором указано количество элементов для каждой корзины.

person Kenan    schedule 17.06.2015

В командной строке AWS CLI используйте ls plus --summarize. Он предоставит вам список всех ваших элементов и общее количество документов в определенной корзине. Я не пробовал это с ведрами, содержащими под-ведра:

aws s3 ls "s3://MyBucket" --summarize

Это займет немного времени (перечисление моих 16 + K документов заняло около 4 минут), но это быстрее, чем подсчет 1K за раз.

person Ricardo    schedule 10.01.2017

Вы можете легко получить общее количество и историю, если вы перейдете на вкладку «Управление» консоли s3 и затем щелкните «Метрики» ... Снимок экрана вкладки

person Tilan Ukwatta    schedule 24.07.2019
comment
не могли бы вы обновить изображение, чтобы показать диаграмму NumberOfObjects (count/day)? Было бы лучше, так как это напрямую связано с вопросом. На скриншоте вы показываете BucketSizeBytes (bytes/day), который, хотя и полезен, не имеет прямого отношения к проблеме. - person guzmonne; 24.07.2019
comment
По состоянию на 2019 год это должен быть принятый ответ. Все остальное устаревшее или медленное. - person C Johnson; 21.01.2020

Один из самых простых способов подсчитать количество объектов в s3:

Шаг 1. Выберите корневую папку

Шаг 2. Нажмите Действия - ›Удалить (очевидно, будьте осторожны - не удаляйте его)

Шаг 3: Подождите несколько минут. AWS покажет вам количество объектов и их общий размер.

person rohitcoder    schedule 23.11.2019
comment
Хороший взлом, но теперь в консоли есть действие под названием Get Size, которое также дает вам количество объектов. - person Eli Algranti; 30.07.2020
comment
@EliAlgranti где именно эта опция? Показывает ли он количество файлов или общий размер в килобайтах? - person nclsvh; 08.04.2021

В s3cmd просто выполните следующую команду (в системе Ubuntu):

s3cmd ls -r s3://mybucket | wc -l
person mjsa    schedule 24.02.2015
comment
Почему вы воскресили вопрос пятилетней давности, чтобы опубликовать плохо отформатированную копию существующего ответа? - person Two-Bit Alchemist; 25.02.2015
comment
В предыдущем ответе вывод без надобности передавался в текстовый файл. - person mjsa; 26.02.2015
comment
ИМО, тогда это должен быть комментарий к этому ответу. Это действительно тривиальная разница. - person Two-Bit Alchemist; 26.02.2015
comment
Похоже на достойный ответ - тем более, что выбранный ответ на этот вопрос начинается с «Нет пути ...», а @mjsa предоставил однострочный ответ. - person Nan; 09.09.2015
comment
Это не лучший ответ, потому что он не учитывает версионные объекты. - person 3h4x; 17.04.2019

Если вы используете AWS CLI в Windows, вы можете использовать Measure-Object из PowerShell для получения общего количества файлов, как wc -l в * nix.

PS C:\> aws s3 ls s3://mybucket/ --recursive | Measure-Object

Count    : 25
Average  :
Sum      :
Maximum  :
Minimum  :
Property :

Надеюсь, это поможет.

person pdm    schedule 22.01.2019

API вернет список с шагом 1000. Проверьте свойство IsTruncated, чтобы узнать, есть ли еще. Если есть, вам нужно сделать еще один вызов и передать последний полученный ключ в качестве свойства Marker при следующем вызове. Затем вы продолжите такой цикл до тех пор, пока IsTruncated не станет ложным.

См. Этот документ Amazon для получения дополнительной информации: Итерация по многостраничным результатам

person BigJoe714    schedule 19.05.2010

Старая ветка, но все еще актуальна, так как я искал ответ, пока не понял это. Я хотел подсчитать количество файлов с помощью инструмента на основе графического интерфейса (т.е. без кода). Я уже использую инструмент под названием 3Hub для перетаскивания переводов на S3 и обратно. Я хотел знать, сколько файлов у меня было в определенной корзине (я не думаю, что биллинг разбивает ее по сегментам).

So, using 3Hub, 
- list the contents of the bucket (looks basically like a finder or explorer window)
- go to the bottom of the list, click 'show all'
- select all (ctrl+a)
- choose copy URLs from right-click menu
- paste the list into a text file (I use TextWrangler for Mac) 
- look at the line count  

У меня в корзине было 20521 файл, и я подсчитал их менее чем за минуту.

person Darby    schedule 15.02.2014

Я использовал скрипт python с сайта scalablelogic.com (добавление в журнал учета). Сработало отлично.

#!/usr/local/bin/python

import sys

from boto.s3.connection import S3Connection

s3bucket = S3Connection().get_bucket(sys.argv[1])
size = 0
totalCount = 0

for key in s3bucket.list():
    totalCount += 1
    size += key.size

print 'total size:'
print "%.3f GB" % (size*1.0/1024/1024/1024)
print 'total count:'
print totalCount
person Tayler    schedule 05.01.2015
comment
Просто чтобы вы знали, это не работает с boto3. Я внес предложение ниже в качестве другого ответа. - person fuzzygroup; 24.10.2019

С 18 ноября 2020 г. появился более простой способ получить эту информацию, не облагая налогом запросы API:

AWS S3 Storage Lens

Встроенная бесплатная панель управления по умолчанию позволяет вам видеть счетчик для всех сегментов или отдельных сегментов на вкладке сегментов. Существует множество раскрывающихся списков для фильтрации и сортировки практически любой разумной метрики, которую вы можете найти.

введите описание изображения здесь

введите описание изображения здесь

person DevOps Dan    schedule 21.11.2020

Ни один из API не даст вам счет, потому что на самом деле нет специального API Amazon для этого. Вам нужно просто запустить список содержимого и подсчитать количество возвращаемых результатов.

person Mitch Dempsey    schedule 19.05.2010
comment
По какой-то причине рубиновые библиотеки (right_aws / appoxy_aws) не перечисляют больше, чем первые 1000 объектов в корзине. Есть ли другие, в которых будут перечислены все объекты? - person fields; 19.05.2010
comment
Когда вы запрашиваете список, они предоставляют поле NextToken, которое вы можете использовать для повторной отправки запроса с токеном, и в нем будет перечислено больше. - person Mitch Dempsey; 19.05.2010

Вот версия скрипта python для boto3, встроенная выше.

import sys
import boto3

s3 = boto3.resource('s3')
s3bucket = s3.Bucket(sys.argv[1])
size = 0
totalCount = 0

for key in s3bucket.objects.all():
    totalCount += 1
    size += key.size

print('total size:')
print("%.3f GB" % (size*1.0/1024/1024/1024))
print('total count:')
print(totalCount)`
person fuzzygroup    schedule 24.10.2019

aws s3 ls s3: // имя-ведра / префикс-папки-если-есть --recursive | wc -l

person MayurSatpute    schedule 21.02.2020
comment
Он работает более 1000, у меня насчитывается 4258 - person KingAndrew; 04.06.2020
comment
Строки напрямую не соответствуют количеству файлов. Потому что у них также есть целая строка только для даты и каталога. - person CMCDragonkai; 15.06.2020
comment
Команда работает с ограниченным количеством файлов. В моем случае количество файлов больше миллиона, и это никогда не дает никакого результата. Но это хороший вариант для ограниченных файлов. - person Jugal Panchal; 19.06.2020

Выберите корзину / папку - ›Нажмите действия -› Нажмите «Рассчитать общий размер».

person Anuj Guleria    schedule 22.04.2021

Поддержка 3Hub прекращена. Есть лучшее решение: вы можете использовать Transmit (только для Mac), а затем просто подключитесь к своей корзине и выберите Show Item Count из меню View.

person arielcr    schedule 18.08.2014
comment
Передача, к сожалению, показывает только до 1000 элементов (и поэтому количество элементов также максимально на 1000) - person Tino; 11.10.2016

Вы можете загрузить и установить браузер s3 со страницы http://s3browser.com/. Когда вы выбираете сегмент в правом центре, вы можете увидеть количество файлов в сегменте. Но размер, который он показывает, неверен в текущей версии.

Губы

person gubs    schedule 08.07.2016

Потенциально вы можете использовать инвентарь Amazon S3, который предоставит вам список объектов в файле csv.

person Vivek    schedule 17.05.2018

Также можно сделать с помощью gsutil du (да, с помощью инструмента Google Cloud)

gsutil du s3://mybucket/ | wc -l
person Ghilas BELHADJ    schedule 09.05.2019

Вы можете просто выполнить эту команду cli, чтобы получить общее количество файлов в корзине или определенной папке.

Сканирование всего ведра

aws s3api list-objects-v2 --bucket testbucket | grep "Key" | wc -l
aws s3api list-objects-v2 --bucket BUCKET_NAME | grep "Key" | wc -l

вы можете использовать эту команду, чтобы получить подробную информацию

aws s3api list-objects-v2 --bucket BUCKET_NAME

Сканировать определенную папку

aws s3api list-objects-v2 --bucket testbucket --prefix testfolder --start-after testfolder/ | grep "Key" | wc -l

aws s3api list-objects-v2 --bucket BUCKET_NAME --prefix FOLDER_NAME --start-after FOLDER_NAME/ | grep "Key" | wc -l
person Indunil Asanka    schedule 07.07.2019

Если вы ищете определенные файлы, скажем .jpg изображения, вы можете сделать следующее:

aws s3 ls s3://your_bucket | grep jpg | wc -l
person tsveti_iko    schedule 08.08.2019

Ниже показано, как это можно сделать с помощью Java-клиента.

<dependency>
    <groupId>com.amazonaws</groupId>
    <artifactId>aws-java-sdk-s3</artifactId>
    <version>1.11.519</version>
</dependency>
import com.amazonaws.ClientConfiguration;
import com.amazonaws.Protocol;
import com.amazonaws.auth.AWSStaticCredentialsProvider;
import com.amazonaws.auth.BasicAWSCredentials;
import com.amazonaws.services.s3.AmazonS3;
import com.amazonaws.services.s3.AmazonS3ClientBuilder;
import com.amazonaws.services.s3.model.ObjectListing;

public class AmazonS3Service {

    private static final String S3_ACCESS_KEY_ID = "ACCESS_KEY";
    private static final String S3_SECRET_KEY = "SECRET_KEY";
    private static final String S3_ENDPOINT = "S3_URL";

    private AmazonS3 amazonS3;

    public AmazonS3Service() {
        ClientConfiguration clientConfiguration = new ClientConfiguration();
        clientConfiguration.setProtocol(Protocol.HTTPS);
        clientConfiguration.setSignerOverride("S3SignerType");
        BasicAWSCredentials credentials = new BasicAWSCredentials(S3_ACCESS_KEY_ID, S3_SECRET_KEY);
        AWSStaticCredentialsProvider credentialsProvider = new AWSStaticCredentialsProvider(credentials);
        AmazonS3ClientBuilder.EndpointConfiguration endpointConfiguration = new AmazonS3ClientBuilder.EndpointConfiguration(S3_ENDPOINT, null);
        amazonS3 = AmazonS3ClientBuilder.standard().withCredentials(credentialsProvider).withClientConfiguration(clientConfiguration)
                .withPathStyleAccessEnabled(true).withEndpointConfiguration(endpointConfiguration).build();
    }

    public int countObjects(String bucketName) {
        int count = 0;
        ObjectListing objectListing = amazonS3.listObjects(bucketName);
        int currentBatchCount = objectListing.getObjectSummaries().size();
        while (currentBatchCount != 0) {
            count += currentBatchCount;
            objectListing = amazonS3.listNextBatchOfObjects(objectListing);
            currentBatchCount = objectListing.getObjectSummaries().size();
        }
        return count;
    }
}
person Rakesh    schedule 17.10.2019

Самый простой способ - использовать консоль разработчика, например, если вы используете Chrome, выберите Инструменты разработчика, и вы увидите следующее: вы можете либо найти и подсчитать, либо сопоставить, например 280-279 + 1 = 2

...

person zeroc00l    schedule 26.07.2016
comment
Не могли бы вы добавить более подробную информацию о том, как вы использовали инструменты разработчика, чтобы вычислить общее количество объектов в корзине. - person Jugal Panchal; 19.06.2020