Читать книгу Data Science. Практика онлайн
Вот еще два примера кода на языке Python для парсинга текстовых файлов:
Пример 1: Парсинг CSV файла
```python
import csv
def parse_csv_file(file_path):
results = []
with open(file_path, 'r') as file:
csv_reader = csv.reader(file)
for row in csv_reader:
results.append(row)
return results
file_path = 'example.csv' # Замените 'example.csv' на путь к вашему CSV файлу
results = parse_csv_file(file_path)
for row in results:
print(row)
```
В данном примере функция `parse_csv_file` принимает путь к CSV файлу в качестве аргумента и использует модуль `csv` для чтения содержимого файла. Функция возвращает список, содержащий строки CSV файла, где каждая строка представлена в виде списка значений. Замените `'example.csv'` на путь к вашему CSV файлу и запустите код для парсинга данных из файла.
Пример 2: Парсинг JSON файла
```python
import json
def parse_json_file(file_path):
with open(file_path, 'r') as file:
data = json.load(file)
return data
file_path = 'example.json' # Замените 'example.json' на путь к вашему JSON файлу
data = parse_json_file(file_path)
# Обработка данных JSON
# Например, вывод значения определенного ключа
value = data['key']
print(value)
```
`parse_json_file`
Вы можете сохранить этот код в файл с расширением `.py`, заменив `'example.txt'` на путь к вашему текстовому файлу, и запустить его для парсинга данных из файла.
Очистка и преобразование текстовых данных
Примера кода на языке Python для очистки и преобразования текстовых данных:
Пример 1: Удаление знаков препинания и приведение к нижнему регистру
```python
import string
def clean_text(text):
# Удаление знаков препинания
text = text.translate(str.maketrans('', '', string.punctuation))
# Приведение к нижнему регистру
text = text.lower()
return text
# Пример использования функции очистки текста
text = "Это пример текста! Он содержит знаки препинания."
cleaned_text = clean_text(text)
print(cleaned_text)
```
`clean_text`translate``string``lower()`
Пример 2: Токенизация текста
```python
from nltk.tokenize import word_tokenize