Python ではじめるデータラングリング 5日目

みなせあきとです。

引き続き11章のウェブスクレイピングについて学んでいます。

今日の学習時間は、40分+30分=1時間10分でした。

Webスクレイピングが何に役立つか

urilib や requests それに BeautifulSoup さらには lxml といった優れたライブラリが Python にはあります。ただ、どんなデータを Web スクレイピングするかということはあまり想像ができません。

必要に応じてデータを取得するということなのでしょうが、やはりやりたいことが先立ってないと、こういうときにこういう技術が使える、という想像もしにくいなぁ、と感じました。

私で言うと株価データのスクレイピングはしたいな~と思ったことはあります。ただ、APIで済むものもありますし、金融関係ではスクレイピングが禁止されているサイトも多いようです。

今後は何をつくりたいか、どういうことをしたいか、伝えたいことは何か、何を知りたいのか、このあたりを重点的に考えていきたいと思います。開発していくうえで、やはりこのあたりのアイデアはかなり重要な気がしています。

Nuxt.js や Vue CLI を使った開発

今日も引き続き Vue.js の学習をしています。

だいたい 70% くらいが終わったので、来週中くらいには全てのセクションを終わらせることができそうです。次は、Nuxt.js や Vue CLI を使って本格的な開発にチャレンジしていきたいと思います。

個人的にいろいろと手伝いでフロント関係のことをやっているせいか、結構基本的なことは分かってきました。CDN を使っているので、Web環境があれば工夫していろいろ作れるというのはかなり強いです。環境が限定されていても、インターネットが接続されていないことはまずありえないですからね。

やっぱり思うのは、フロントエンドの開発はすぐ目に見える形でデプロイできるので、楽しさがあります。Python の開発も楽しいのですが、やっぱり Web系のことがしたいですね。

コメント