Я использую скрипт Python для просмотра списка субреддитов и извлечения их сообщений. Однако список длинный, и иногда там будут ошибки 403, 404 и т. д. Я пытаюсь обойти те, которые дают ошибки, но пока не смог этого сделать. Код ниже.
Я использую список сабреддитов и praw, чтобы извлекать из них. Однако список довольно длинный, и иногда субреддит в нем будет удален, что приведет к исключению HTTP (403, 404 и т. д.). Мой код ниже, кто-нибудь знает одну или две строки, которые я могу вставить, чтобы пропустить те, которые дают ошибки?
df = pd.read_csv('reddits.csv', sep = ',')
df.head()
Submission = namedtuple('Submission', ['time', 'score', 'title', 'text', 'author', 'comments', 'url', 'domain', 'permalink', 'ups', 'downs', 'likes', 'crosspost', 'duplicates', 'views'])
data = []
for i in df.reddits:
subreddit = reddit.subreddit(i)
for submission in subreddit.new(limit=10):
time = datetime.utcfromtimestamp(submission.created_utc)
score = submission.score
title = submission.title
text = submission.selftext
author = submission.author
comments = submission.num_comments
url = submission.url
domain = submission.domain
permalink = submission.permalink
ups = submission.ups
downs = submission.downs
likes = submission.likes
crosspost = submission.num_crossposts
duplicates = submission.num_duplicates
views = submission.view_count
data.append(Submission(time, score, title, text, author, comments, url, domain, permalink, ups, downs, likes, crosspost, duplicates, views))
df = pd.DataFrame(data)
os.chdir('wd')
filename = i + str(datetime.now()) + '.csv'
df.to_csv(filename, index=False, encoding='utf-8')
try:
и ничего не делать (или, что еще лучше, записать что-нибудь полезное) в блокexcept
. - person Ben   schedule 29.10.2020