TypeError: требуется байт-подобный объект, а не' str ' в python и CSV
TypeError: требуется байт-подобный объект, а не' str'
получаю выше сообщение об ошибке во время выполнения ниже код Python, чтобы сохранить данные в HTML-таблицы в файл CSV. не знаю, как избавиться.пожалуйста, помогите мне.
import csv
import requests
from bs4 import BeautifulSoup
url='http://www.mapsofindia.com/districts-india/'
response=requests.get(url)
html=response.content
soup=BeautifulSoup(html,'html.parser')
table=soup.find('table', attrs={'class':'tableizer-table'})
list_of_rows=[]
for row in table.findAll('tr')[1:]:
list_of_cells=[]
for cell in row.findAll('td'):
list_of_cells.append(cell.text)
list_of_rows.append(list_of_cells)
outfile=open('./immates.csv','wb')
writer=csv.writer(outfile)
writer.writerow(["SNo", "States", "Dist", "Population"])
writer.writerows(list_of_rows)
on над последней строкой.
3 ответа:
вы используете методику Python 2 вместо Python 3.
изменения:
outfile=open('./immates.csv','wb')
To:
outfile=open('./immates.csv','w')
и вы получите файл со следующим выводом:
SNo,States,Dist,Population 1,Andhra Pradesh,13,49378776 2,Arunachal Pradesh,16,1382611 3,Assam,27,31169272 4,Bihar,38,103804637 5,Chhattisgarh,19,25540196 6,Goa,2,1457723 7,Gujarat,26,60383628 .....
в Python 3 csv принимает ввод в текстовом режиме, тогда как в Python 2 он принимал его в двоичном режиме.
редактировать, чтобы добавить
вот код, который я запустил:
url='http://www.mapsofindia.com/districts-india/' html = urllib.request.urlopen(url).read() soup = BeautifulSoup(html) table=soup.find('table', attrs={'class':'tableizer-table'}) list_of_rows=[] for row in table.findAll('tr')[1:]: list_of_cells=[] for cell in row.findAll('td'): list_of_cells.append(cell.text) list_of_rows.append(list_of_cells) outfile = open('./immates.csv','w') writer=csv.writer(outfile) writer.writerow(['SNo', 'States', 'Dist', 'Population']) writer.writerows(list_of_rows)
у меня была такая же проблема с Python3. Мой код писал в
io.BytesIO()
.заменить на
io.StringIO()
решена.
file = open('parsed_data.txt', 'w') for link in soup.findAll('a', attrs={'href': re.compile("^http")}): print (link) soup_link = str(link) print (soup_link) file.write(soup_link) file.flush() file.close()
в моем случае, я использовал BeautifulSoup, чтобы написать .txt с Python 3.х. Это была та же проблема. Как и сказал @tsduteba, измените "wb" в первой строке на "w".